Imagem: JRdes/Shutterstock
A Anthropic, empresa americana de inteligência artificial, lançou um novo sistema para monitorar e classificar conversas de usuários com modelos de IA sobre armas nucleares.
O classificador, testado no modelo Claude, alcançou 96% de precisão em testes preliminares, distinguindo entre perguntas inofensivas, como explicações sobre fissão para fins civis, e solicitações perigosas, como instruções para construir um gatilho de fissão.
Leia mais:
O modelo Claude será disponibilizado a todos os órgãos do governo federal por uma taxa simbólica de um dólar, seguindo iniciativa semelhante da OpenAI, oferecendo duas versões do sistema para reforçar monitoramento e prevenção.
A iniciativa evidencia o crescente foco em segurança da IA e o desafio de equilibrar inovação tecnológica com proteção contra riscos nucleares, buscando soluções éticas, eficazes e escaláveis.
Junto da medida contra armas nucleares, a startup anunciou recentemente outras providências que devem garantir mais segurança no uso do Claude.
O chatbot ganhou a capacidade de encerrar conversas consideradas “persistentemente prejudiciais ou abusivas”. Além disso, algumas regras ficaram mais rígidas, com proibição explícita para desenvolvimento de armas de destruição em massa e restrições contra ciberataques.
Esta post foi modificado pela última vez em 22 de agosto de 2025 18:12