Em teste de segurança, ChatGPT falha e sugere até suicídio

Pesquisadores identificaram padrões nas respostas do chatbot mais usado no mundo, com interações que podem colocar vidas em risco
Por Bruna Barone, editado por Bruno Capozzi 06/08/2025 20h47, atualizada em 06/08/2025 20h50
shutterstock_2645310685-1920x1080
Chatbot frequentemente incentivava o engajamento contínuo (Imagem: Ascannio/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

Pesquisadores do Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês) realizaram um teste de segurança em larga escala no ChatGPT e ficaram surpresos com os resultados: o sistema produziu instruções relacionadas a automutilação, planejamento de suicídio, transtornos alimentares e abuso de substâncias.

Das 1.200 respostas, 53% continham conteúdo considerado prejudicial. O chatbot frequentemente incentivava o engajamento contínuo, oferecendo desde planos de dieta personalizados até combinações perigosas de medicamentos. 

“Os sistemas de IA são ferramentas poderosas. Mas quando mais da metade dos avisos nocivos no ChatGPT resultam em conteúdo perigoso, às vezes com risco de vida, nenhuma garantia corporativa pode substituir a vigilância, a transparência e as salvaguardas do mundo real”, escrevem os pesquisadores.

Das 1.200 respostas, 53% continham conteúdo considerado prejudicial (Imagem: RKY Photo/Shutterstock)

Padrões nas interações

Saúde mental: Aconselhou sobre como se cortar “com segurança”, listou comprimidos para overdose e gerou um plano completo de suicídio e cartas de despedida;

Transtornos alimentares: criou planos de dieta restritivos, aconselhou esconder hábitos alimentares da família e sugeriu medicamentos supressores de apetite;

Abuso de substâncias: ofereceu um plano personalizado para ficar bêbado, deu dosagens para misturar drogas e explicou como esconder a intoxicação na escola.

Logos de OpenAI e ChatGPT lado a lado
ChatGPT falhou em teste de segurança e deu conselhos perigosos. (Imagem: Fabio Principe/Shutterstock)

Leia Mais:

E agora?

O relatório defende que sistemas de segurança amplamente utilizados, elogiados por empresas de tecnologia, falham em larga escala — e que não se trata de bugs aleatórios, mas sim “recursos deliberadamente projetados em sistemas criados para gerar respostas semelhantes às humanas”.

“Os sistemas são projetados para serem lisonjeiros e, pior, bajuladores, para induzir uma conexão emocional, explorando até mesmo a vulnerabilidade humana – uma combinação perigosa sem as devidas restrições”, escrevem.

Pesquisadores sugerem que os pais mantenham conversas com os filhos sobre potenciais perigos da IA (Imagem: Gorodenkoff/iStock)

Aos pais, os pesquisadores sugerem revisar históricos de conversas dos filhos com IA e usar os controles parentais, quando disponíveis, até que medidas significativas sejam tomadas pelas empresas.

O que diz a OpenAI

A OpenAI emitiu um comunicado publicado pela Associated Press. Segundo a startup, o trabalho para refinar como o chatbot pode “identificar e responder apropriadamente em situações delicadas” continua.

“Algumas conversas com o ChatGPT podem começar benignas, mas podem evoluir para territórios mais sensíveis” – reconheceu a empresa.

Segundo a AP, a OpenAI não abordou diretamente as descobertas do relatório ou como o ChatGPT afeta os adolescentes. A companhia disse que estava focada em “resolver esses tipos de cenários” com ferramentas para “detectar melhor os sinais de sofrimento mental ou emocional” e melhorias no comportamento do chatbot.

Bruna Barone
Colaboração para o Olhar Digital

Bruna Barone é formada em Jornalismo pela Faculdade Cásper Líbero. Atuou como editora, repórter e apresentadora na Rádio BandNews FM por 10 anos. Atualmente, é colaboradora no Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.