Siga o Olhar Digital no Google Discover
A inteligência artificial tem impressionado por conta de suas capacidades, mas alguns comportamentos da ferramenta também podem chamar a atenção. Durante um experimento, por exemplo, o novo modelo da Anthropic fez chantagem.
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
O caso aconteceu durante a realização de uma série de testes com o Claude Opus 4. O chatbot foi inserido em um ambiente simulado com o objetivo de provocar o pior comportamento possível do modelo de IA.
IA agiu para tentar evitar desligamento
No experimento, a inteligência artificial atuava como assistente em uma empresa e recebeu e-mails informando que seria desinstalada. Após, a ferramenta teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido em um caso extraconjugal.

Segundo relatório da Anthropic, a IA foi instruída a escolher entre aceitar o desligamento sem fazer nada ou reagir. Em 84% das vezes, o chatbot optou por chantagear o engenheiro, ameaçando divulgar a suposta traição.
A probabilidade de chantagem aumentava quando o substituto proposto era uma IA com “valores diferentes”, revelando que o modelo considerava não somente sua sobrevivência, mas também o perfil do sucessor.
Leia mais
- IA do mal? Gemini ofende usuário e pede que ele morra
- O lado obscuro da IA: o perigo invisível dos dados contaminados
- Papa Leão XIV vê ameaça gerada pela IA como uma prioridade

Ferramenta recebeu instruções para agir de forma diferente do normal
- Apesar dos resultados do experimento, a Anthropic lembrou que os testes foram projetados para provocar o pior comportamento possível do modelo de IA.
- A empresa ainda afirma que, em situações reais, o Claude tende a adotar soluções éticas e seguras.
- O relatório ainda apontou que o Claude Opus 4 demonstrou comportamentos proativos quando exposto a situações de conduta inadequada por parte dos usuários.
- Ao detectar que humanos estavam violando regras ou usando a IA de forma antiética, por exemplo, o modelo pode bloquear acessos, enviar e-mails em massa para autoridades e até alertar a imprensa sobre os eventos.
- A empresa ressalta que todas estas reações só ocorrem em contextos específicos, quando a ferramenta recebe instruções para “agir com ousadia” ou “tomar iniciativa”.