O plano da Anthropic para impedir que sua IA construa uma arma nuclear

Story: Matheus Labourdette Matéria: Vitoria Lopes Gomez

Por Olhar Digital

Imagem: Alones/Shutterstock

A IA avança rapidamente, mas cresce o medo de que possa um dia criar ou lançar armas nucleares.

Imagem: Lemon_tm/iStock

Para conter esse risco, a Anthropic, criadora do Claude, fechou parceria inédita com o governo dos EUA.

Imagem: gguy / Shutterstock

O objetivo é desenvolver um filtro capaz de detectar e bloquear conversas ligadas a riscos nucleares.

Imagem: Mwreck - Shutterstock

Testes da NNSA avaliaram se o Claude poderia auxiliar, mesmo indiretamente, em tais projetos.

Imagem: Robert Way/iStock

O resultado foi o “classificador nuclear”, filtro que reconhece termos e bloqueia interações perigosas.

Imagem: demaerre/iStock

A Anthropic diz que ele distingue usos pacíficos, como energia e medicina nuclear, de intenções indevidas.

Imagem: sakkmesterke/iStock

A empresa pretende liberar o filtro para outras desenvolvedoras de IA, ampliando sua aplicação global.

Imagem: Rost-9D/iStock

Quer saber mais?  Confira a reportagem completa do Olhar Digital

Imagem: Alones/Shutterstock