O plano da Anthropic para impedir que sua IA construa uma arma nuclear

Empresa criadora do Claude anunciou parceria com o governo dos EUA para criar um filtro capaz de detectar conversas sobre riscos nucleares
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 21/10/2025 08h51
bomba atômica, bomba nuclear
Imagem: Alones/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Apesar de todo o potencial da inteligência artificial, o desenvolvimento dessas ferramentas é acompanhado por diversas preocupações. A maior delas, sem dúvidas, é a possibilidade que a tecnologia construa e lance armas nucleares.

Em meio a este temor, a Anthropic, criadora do chatbot Claude, anunciou uma parceria inédita com o governo dos Estados Unidos. O objetivo é criar um filtro avançado capaz de detectar e bloquear conversas relacionadas a riscos nucleares. 

claude
Ideia é impedir que Claude ajude a desenvolver armas nucleares (Imagem: gguy/Shutterstock)

Filtro será disponibilizado para outras empresas de IA

De acordo com informações do portal Wired, cientistas da Administração Nacional de Segurança Nuclear dos Estados Unidos (NNSA) realizaram diversos testes para identificar se o Claude poderia, mesmo que indiretamente, ajudar alguém a projetar uma arma nuclear.

Esse trabalho possibilitou a criação de um “classificador nuclear”, uma espécie de filtro inteligente capaz de reconhecer tópicos, termos e detalhes técnicos associados a riscos nucleares. Nestes casos, a IA seria simplesmente “desativada”, embora não tenham sido divulgados mais detalhes de como isso aconteceria.

Casa Branca
Empresa anunciou parceria inédita com a Casa Branca (Imagem: Andrea Izzotti/Shutterstock)

A Anthropic destaca que o sistema consegue diferenciar discussões sobre energia nuclear ou medicina nuclear de tentativas de uso indevido da tecnologia. E que pretende disponibilizar o filtro para outras desenvolvedoras de IA.

Nós o construímos usando uma lista desenvolvida pela NNSA de indicadores de risco nuclear, tópicos específicos e detalhes técnicos que nos ajudam a identificar quando uma conversa pode estar se desviando para um território prejudicial. A lista em si é controlada, mas não confidencial, o que é crucial, porque significa que nossa equipe técnica e outras empresas podem implementá-la.

Marina Favaro, diretora de Políticas de Segurança Nacional da Anthropic

Leia mais

guerra-nuclear-bombas-consequencias
Especialistas questionam se empresas privadas devem ter acesso a dados sobre armas nucleares (Imagem: Vadim Sadovski/Shutterstock)

Preocupações persistem

  • O anúncio da Anthropic, no entanto, não agradou a todos.
  • Especialistas ouvidos na publicação revelaram preocupações com a efetividade do filtro.
  • Para Heidy Khlaaf, cientista-chefe de IA do AI Now Institute, empresas privadas simplesmente não deveriam ter acesso a algumas informações confidenciais.
  • Ela ressalta que, se o Claude nunca tiver acesso a dados confidenciais sobre armas nucleares, o sistema se tornaria desnecessário.
Alessandro Di Lorenzo
Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.