- Os cientistas de IA alertam contra as possíveis ameaças da IA se os humanos perderem o controle.
- Os especialistas pedem que as nações adotem um plano de contingência global para enfrentar os riscos.
- Eles lamentaram a falta de tecnologia avançada para enfrentar os danos da IA.
Os cientistas de IA soaram o alarme sobre os perigos potenciais da inteligência artificial. Em um comunicado, um grupo de especialistas alertou sobre a possibilidade de os humanos perderem o controle sobre a IA e pediu um sistema regulatório coordenado globalmente.
Os cientistas, que desempenharam um papel no desenvolvimento da tecnologia de IA, expressaram preocupação com seus potenciais efeitos nocivos se não forem controlados. Eles enfatizaram a atual falta de ciência avançada para “controlar e salvaguardar” os sistemas de IA, afirmando que “a perda de controle humano ou o uso malicioso desses sistemas de IA podem levar a resultados catastróficos para toda a humanidade”.
Leia também: OpenAI lança novo modelo de IA projetado para ‘pensar’ antes de responder
Gillian Hadfield, jurista e professora da Universidade Johns Hopkins, ressaltou a necessidade urgente de medidas regulatórias. Ela destacou a atual falta de tecnologia para controlar ou restringir a IA se ela superar o controle humano.
Chamada para Plano de Contingência Global
Os cientistas enfatizaram a necessidade de um “plano de contingência global” para permitir que as nações identifiquem e enfrentem as ameaças representadas pela IA. Eles enfatizaram que a segurança da IA é um bem público global que requer cooperação e governança internacionais.
Os especialistas propuseram três processos-chave para regular a IA:
- Estabelecimento de protocolos de resposta a emergências
- Implementação de uma estrutura de padrões de segurança
- Realização de pesquisas completas sobre segurança de IA
Ao abordar a emergência de adoção de novas diretrizes regulatórias, os especialistas afirmaram que a segurança da IA é um bem público global que precisa de cooperação e governança internacional. Eles apresentaram três processos-chave que envolvem a regulamentação da IA. Os cientistas recomendaram o estabelecimento de protocolos de resposta a emergências, a implementação de uma estrutura de padrões de segurança e a realização de pesquisas adequadas sobre segurança de IA.
Países em todo o mundo estão tomando medidas para desenvolver regulamentações e diretrizes para mitigar os riscos crescentes da IA. Na Califórnia, dois projetos de lei, AB 3211 e SB 1047, foram propostos para proteger o público de possíveis danos à IA. A AB 3211 se concentra em garantir a transparência, distinguindo entre IA e conteúdo gerado por humanos. O SB 1047 responsabiliza os desenvolvedores de IA pelos possíveis danos causados por seus modelos.
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.