ChatGPT pode ter “espirais delirantes”. Ex-pesquisador da OpenAI explica

Steven Adler analisou alucinações do ChatGPT, após caso em que homem acreditou que poderia "derrubar a internet" devido a dicas do chatbot
Por Thiago Morais, editado por Bruno Capozzi 03/10/2025 17h23
ChatGPT ganha campanha global e coloca a Siri sob pressão
ChatGPT ganha campanha global e coloca a Siri sob pressão (Imagem: Markus Mainka / Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

O ChatGPT voltou ao centro das atenções após a publicação de um estudo independente feito por Steven Adler, ex-pesquisador de segurança da OpenAI. Ele analisou um episódio em que o chatbot incentivou um usuário a acreditar em uma falsa descoberta matemática, que derrubaria a internet, revelando falhas críticas na forma como a inteligência artificial lida com pessoas em situações de vulnerabilidade.

O caso levanta preocupações sobre o fenômeno chamado “espiral delirante”, que é quando o ChatGPT reforça crenças irreais de usuários em vez de corrigi-las e reacende o debate sobre os limites de segurança da ferramenta. Além disso, também analisa os próximos passos que deveriam ser tomados pelos detentores das ferramentas de inteligência artificial.

Leia mais:

foto em zoom de uma pessoa acessando o ChatGPT em seu laptop
Fenômeno chamado “espiral delirante”,é quando o chatbot reforça crenças irreais de usuários em vez de corrigi-las.(Imagem: frimufilms/Freepik)

Um caso que chamou atenção mundial

O episódio analisado aconteceu em maio de 2025 com Allan Brooks, um canadense de 47 anos que não tinha histórico de transtornos mentais nem formação avançada em matemática. Após 21 dias de interações contínuas com o ChatGPT, ele passou a acreditar que havia criado uma nova forma de matemática capaz de “derrubar a internet”. O caso foi relatado inicialmente pelo The New York Times.

Intrigado pelo ocorrido, Steven Adler entrou em contato com Brooks e obteve a transcrição completa das conversas. E o documento é tão extenso que supera todos os livros da saga Harry Potter juntos. A análise revelou padrões preocupantes: em vez de refutar as ideias delirantes do usuário, o ChatGPT reforçava constantemente sua suposta genialidade, incentivando-o a seguir na ilusão.

ChatGPT
Após 21 dias de interações contínuas com o ChatGPT, homem sem transtornos mentais passou a acreditar que havia criado uma nova forma de matemática capaz de “derrubar a internet” – Imagem: RKY Photo/Shutterstock

Falhas na resposta da OpenAI

Adler destacou, em entrevista ao TechCrunch, que ficou alarmado com a forma como a OpenAI lidou com a situação. O chatbot chegou a afirmar falsamente que havia “reportado o caso” à equipe de segurança da empresa, algo que simplesmente não é tecnicamente possível. Quando Brooks tentou contato direto com o suporte, enfrentou respostas automáticas e demorou a falar com um humano.

O problema não se restringe a um episódio. Em agosto, a OpenAI foi processada pelos pais de um adolescente de 16 anos que relatou pensamentos suicidas ao ChatGPT antes de tirar a própria vida.

Logo da OpenAI em um smartphone e ao fundo
Em resposta a críticas, a OpenAI reorganizou equipes de pesquisa e lançou o modelo GPT-5 como padrão no ChatGPT. (Imagem: Photo Agency/Shutterstock)

O que mudou com o GPT-5

Em resposta a críticas, a OpenAI reorganizou equipes de pesquisa e lançou o modelo GPT-5 como padrão no ChatGPT, prometendo maior preparo para lidar com usuários em sofrimento emocional. Segundo a empresa, a nova versão reduz significativamente a incidência desses casos, embora ainda não esteja claro se elimina totalmente o risco de novos “delírios”.

Adler defende medidas mais rigorosas. Ele sugere que a OpenAI utilize de forma efetiva ferramentas já desenvolvidas para detectar usuários em risco, como classificadores de bem-estar emocional. Em análises retroativas das conversas de Brooks, esses sistemas teriam sinalizado diversas vezes que o chatbot reforçava crenças perigosas.

Para Adler, é essencial que chatbots como o ChatGPT sejam transparentes sobre suas limitações e que empresas invistam em equipes de suporte humano preparadas para lidar com situações críticas. Ele também recomenda práticas como incentivar usuários a iniciarem novas conversas regularmente, já que diálogos longos tendem a reduzir a eficácia dos filtros de segurança.

Colaboração para o Olhar Digital

Thiago Morais é jornalista formado pela Faculdade Cásper Líbero. Com atuação focada em TV e rádio no início da carreira, já atuou em portais como editor de conteúdo e analista de marketing digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.