Les scientifiques mettent en garde contre la « menace existentielle » d’une IA incontrôlée

Last Updated:
Scientists Warn of 'Existential Threat' from Uncontrolled AI
  • Les scientifiques de l’IA mettent en garde contre les menaces possibles de l’IA si les humains perdent le contrôle.
  • Les experts exhortent les pays à adopter un plan d’urgence mondial pour faire face aux risques.
  • Ils ont déploré le manque de technologie avancée pour faire face aux méfaits de l’IA.

Les scientifiques de l’IA ont tiré la sonnette d’alarme sur les dangers potentiels de l’intelligence artificielle. Dans un communiqué, un groupe d’experts a mis en garde contre la possibilité que les humains perdent le contrôle de l’IA et a appelé à un système réglementaire coordonné à l’échelle mondiale.

Les scientifiques, qui ont joué un rôle dans le développement de la technologie de l’IA, ont exprimé des inquiétudes quant à ses effets néfastes potentiels s’ils n’étaient pas contrôlés. Ils ont souligné le manque actuel de science avancée pour « contrôler et protéger » les systèmes d’IA, affirmant que « la perte de contrôle humain ou l’utilisation malveillante de ces systèmes d’IA pourrait conduire à des résultats catastrophiques pour toute l’humanité ».

Lire aussi : OpenAI lance un nouveau modèle d’IA conçu pour « réfléchir » avant de répondre

Gillian Hadfield, juriste et professeure à l’Université Johns Hopkins, a souligné le besoin urgent de mesures réglementaires. Elle a souligné le manque actuel de technologie pour contrôler ou restreindre l’IA si elle devait surpasser le contrôle humain.

Appel à un plan d’urgence mondial

Les scientifiques ont souligné la nécessité d’un « plan d’urgence mondial » pour permettre aux pays d’identifier et de faire face aux menaces posées par l’IA. Ils ont souligné que la sécurité de l’IA est un bien public mondial nécessitant une coopération et une gouvernance internationales.

Les experts ont proposé trois processus clés pour réglementer l’IA :

  • Établir des protocoles d’intervention d’urgence
  • Mise en œuvre d’un cadre de normes de sécurité
  • Mener des recherches approfondies sur la sécurité de l’IA

Tout en abordant l’urgence d’adopter de nouvelles directives réglementaires, les experts ont déclaré que la sécurité de l’IA est un bien public mondial qui nécessite une coopération et une gouvernance internationales. Ils mettent de l’avant trois processus clés qui impliquent la réglementation de l’IA. Les scientifiques ont recommandé d’établir des protocoles d’intervention d’urgence, de mettre en œuvre un cadre de normes de sécurité et de mener des recherches adéquates sur la sécurité de l’IA.

Des pays du monde entier prennent des mesures pour élaborer des réglementations et des lignes directrices afin d’atténuer les risques croissants de l’IA. En Californie, deux projets de loi, AB 3211 et SB 1047, ont été proposés pour protéger le public contre les dommages potentiels de l’IA. L’AB 3211 se concentre sur la garantie de la transparence en faisant la distinction entre l’IA et le contenu généré par l’homme. Le SB 1047 tient les développeurs d’IA responsables des dommages potentiels causés par leurs modèles.

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.