Story: Matheus Labourdette Matéria: Vitoria Lopes Gomez
Imagem: Alones/Shutterstock
A IA avança rapidamente, mas cresce o medo de que possa um dia criar ou lançar armas nucleares.
Imagem: Lemon_tm/iStock
Para conter esse risco, a Anthropic, criadora do Claude, fechou parceria inédita com o governo dos EUA.
Imagem: gguy / Shutterstock
O objetivo é desenvolver um filtro capaz de detectar e bloquear conversas ligadas a riscos nucleares.
Imagem: Mwreck - Shutterstock
Testes da NNSA avaliaram se o Claude poderia auxiliar, mesmo indiretamente, em tais projetos.
Imagem: Robert Way/iStock
O resultado foi o “classificador nuclear”, filtro que reconhece termos e bloqueia interações perigosas.
Imagem: demaerre/iStock
A Anthropic diz que ele distingue usos pacíficos, como energia e medicina nuclear, de intenções indevidas.
Imagem: sakkmesterke/iStock
A empresa pretende liberar o filtro para outras desenvolvedoras de IA, ampliando sua aplicação global.
Imagem: Rost-9D/iStock
Quer saber mais? Confira a reportagem completa do Olhar Digital
Imagem: Alones/Shutterstock