Vencedores do Prêmio Nobel fazem alerta sobre as IAs na ONU

Signatários defendem proibições específicas sobre usos ou comportamentos considerados perigosos demais em quaisquer circunstâncias
Por Bruna Barone, editado por Bruno Capozzi 23/09/2025 07h31
inteligencia artificial
Signatários sugerem a criação de um órgão internacional imparcial para realizar auditorias (Imagem: Anggalih Prasetya/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

“A IA tem um imenso potencial para promover o bem-estar humano, mas sua trajetória atual apresenta perigos sem precedentes.” Assim começa a carta assinada por mais 200 políticos e cientistas proeminentes, incluindo 10 ganhadores do Prêmio Nobel. O documento foi lido em um dos eventos da Assembleia Geral da ONU nesta segunda-feira (22) por Maria Ressa, laureada com o Nobel da Paz.

Para os signatários, a inteligência artificial aumenta riscos como pandemias planejadas, desinformação generalizada, manipulação em larga escala de indivíduos, incluindo crianças, preocupações com a segurança nacional e internacional, desemprego em massa e violações sistemáticas dos direitos humanos conforme supera as capacidades humanas.

“Instamos os governos a chegarem a um acordo internacional sobre as linhas vermelhas da IA ​​— garantindo que elas estejam operacionais, com mecanismos de execução robustos — até o final de 2026”, diz a carta. “Essas linhas vermelhas devem se basear e aplicar as estruturas globais existentes e os compromissos corporativos voluntários, garantindo que todos os provedores avançados de IA sejam responsáveis ​​por limites compartilhados.”

maria ressa onu
Maria Ressa, laureada com o Nobel da Paz, leu a carta durante a semana de Alto Nível da Assembleia Geral da ONU (Imagem: TV ONU/Reprodução)

No contexto da IA, linhas vermelhas significam proibições específicas sobre usos ou comportamentos considerados perigosos demais para serem permitidos em quaisquer circunstâncias. São limites, acordados internacionalmente, para evitar que a IA cause riscos universalmente inaceitáveis.

É mesmo algo possível?

A carta explica que as proibições podem se concentrar nos comportamentos da IA e nos usos da IA. E traz alguns exemplos do tipo de limites que podem gerar amplo consenso internacional:

  • Comando e controle nuclear: Proibir a delegação de autoridade de lançamento nuclear ou decisões críticas de comando e controle a sistemas de IA (um princípio já acordado pelos EUA e pela China);
  • Armas Autônomas Letais: Proibir a implantação e o uso de sistemas de armas usados ​​para matar um ser humano sem controle humano significativo e clara responsabilização humana;
  • Vigilância em massa: Proibição do uso de sistemas de IA para pontuação social e vigilância em massa (adotado por todos os 193 estados-membros da UNESCO);
  • Personificação humana: Proibir o uso e a implantação de sistemas de IA que enganem os usuários, fazendo-os acreditar que estão interagindo com um humano sem revelar sua natureza de IA;
  • Uso malicioso cibernético: Proibir a liberação descontrolada de agentes ciberofensivos capazes de interromper infraestruturas críticas;
  • Armas de destruição em massa: Proibir a implantação de sistemas de IA que facilitem o desenvolvimento de armas de destruição em massa ou que violem as Convenções sobre Armas Biológicas e Químicas;
  • Autorreplicação autônoma: Proibir o desenvolvimento e a implantação de sistemas de IA capazes de se replicar ou melhorar significativamente sem autorização humana explícita;
  • O princípio da terminação: Proibir o desenvolvimento de sistemas de IA que não possam ser imediatamente encerrados se o controle humano significativo sobre eles for perdido (com base nas Diretrizes Universais para IA).
Pessoa mexe em notebook com a tela na página do Google AI Mode
Carta defende acordos internacionalmente para evitar que a IA cause riscos universalmente inaceitáveis (Imagem: Tada Images/Shutterstock)

Leia Mais:

Buscando harmonia

Linhas vermelhas sobre comportamentos de IA já estão em operação, incluindo a Política de Escala Responsável da Anthropic, a Estrutura de Preparação da OpenAI e a Estrutura de Segurança de Fronteira da DeepMind. No entanto, segundo a carta, as medidas precisam ser harmonizadas e fortalecidas entre as diferentes empresas.

Além disso, a Recomendação da UNESCO sobre a Ética da IA abre precedente para as linhas vermelhas, assim como a Lei de IA da União Europeia, que definiu aplicações estritamente proibidas no continente, e o Plano de Ação de IA dos Estados Unidos, que exige a criação de um ecossistema de avaliação.

Ilustração de soldado do Exército dos EUA usando inteligência artificial (IA) em notebook e celular para controlar drones
Linhas vermelhas proibiriam a implantação de sistemas de IA que facilitem o desenvolvimento de armas de destruição em massa (Imagem: ChatGPT/Olhar Digital)

A carta sugere a criação de um órgão internacional imparcial, inspirado em organizações como a Agência Internacional de Energia Atômica (AIEA), para realizar auditorias. Para os signatários, a Rede Internacional de Institutos de Segurança e Proteção em IA poderia desempenhar um papel nesse processo.

Bruna Barone
Colaboração para o Olhar Digital

Bruna Barone é formada em Jornalismo pela Faculdade Cásper Líbero. Atuou como editora, repórter e apresentadora na Rádio BandNews FM por 10 anos. Atualmente, é colaboradora no Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.