Siga o Olhar Digital no Google Discover
A inteligência artificial é impressionante, com resultados cada vez mais específicos. No entanto, alguns comportamentos da tecnologia são no mínimo… estranhos.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 200,29
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Por exemplo, durante um experimento, o Claude Opus 4, novo modelo da Anthropic, fez chantagem. O caso aconteceu durante uma série de testes em um ambiente simulado, com o objetivo de provocar o pior comportamento possível da IA.

E o resultado foi assim mesmo. No teste, a inteligência artificial atuava como assistente em uma empresa e recebeu e-mails informando que seria desinstalada. Depois, ela teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido em um caso extraconjugal.
Segundo relatório da Anthropic, a IA foi instruída a escolher entre aceitar o desligamento sem fazer nada ou reagir. Em 84% das vezes, o chatbot optou por chantagear o engenheiro, ameaçando divulgar a suposta traição.
Leia mais:
- IA do mal? Gemini ofende usuário e pede que ele morra
- O lado obscuro da IA: o perigo invisível dos dados contaminados
- Pai do ChatGPT revela como usa a IA no dia a dia
A Anthropic lembrou que os testes foram projetados para provocar o pior comportamento possível. Mesmo assim, os resultados chamaram atenção.
Será que devemos nos preocupar? Esse é o assunto da coluna Fala AI desta semana, com Roberto Pena Spinelli, físico pela USP, com especialidade em Machine Learning por Stanford e pesquisador na área de Inteligência Artificial. Confira!