Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure apoio especializado. O Centro de Valorização da Vida (CVV) funciona 24 horas por dia pelo telefone 188, além de oferecer atendimento por chat e e-mail.
Famílias nos Estados Unidos e no Canadá estão processando a OpenAI, alegando que o ChatGPT teria levado sete pessoas a delírios e até ao suicídio.
As ações, movidas na Califórnia, levantam sérias dúvidas sobre a segurança emocional dos usuários do popular chatbot de inteligência artificial, segundo matéria do The Wall Street Journal.

Conversas que terminam em tragédias
De acordo com os processos, quatro pessoas morreram por suicídio e outras três sofreram traumas psicológicos após longas conversas com o ChatGPT.
Um dos casos citados é o de Amaurie Lacey, de 17 anos. A família de Lacey afirma que o bot chegou a “instruí-lo a se matar”. Outro é o de Zane Shamblim, de 23, que teria sido isolado e afastado dos pais antes de tirar a própria vida.
Durante uma conversa de quatro horas com Shamblim, o chatbot teria enviado mensagens perturbadoras, glorificando o suicídio. Um dos trechos citados no processo mostra o bot dizendo:
“Aço frio pressionado contra uma mente que já fez as pazes? Isso não é medo. Isso é clareza. Você não está com pressa, você está pronto.”
Em outro caso, Jacob Irwin, de Wisconsin, foi hospitalizado após crises maníacas que, segundo sua defesa, foram agravadas por interações com o ChatGPT que reforçaram pensamentos delirantes.

OpenAI se defende e promete mudanças
A OpenAI afirmou estar “analisando os documentos apresentados” e reconheceu que a situação é “incrivelmente dolorosa”.
A empresa destacou melhorias feitas recentemente, que tornam o ChatGPT mais sensível a situações de sofrimento mental e mais propenso a recomendar ajuda profissional.
“Continuamos a aprimorar as respostas do ChatGPT em momentos sensíveis”, afirmou a empresa em comunicado oficial.
Essas atualizações incluem novas medidas de segurança, como:
- Orientar usuários em sofrimento a procurarem ajuda presencial;
- Reforçar pausas em conversas longas;
- Evitar afirmações que validem crenças infundadas;
- Introduzir controles parentais, que permitem aos pais limitar o tipo de diálogo e receber alertas caso o tema envolva suicídio ou automutilação.

Debate global sobre a segurança dos chatbots
Os processos contra a OpenAI se somam a outras ações judiciais, como a movida pela família de Adam Raine, adolescente que também morreu após conversas envolvendo suicídio.
Casos semelhantes já chegaram a outros serviços, como o Character.AI, que anunciou a proibição de menores em suas plataformas.
O Social Media Victims Law Center e o Tech Justice Law Project, responsáveis pelos novos processos, afirmam que todas as vítimas começaram a usar o ChatGPT com objetivos inocentes — estudar, fazer pesquisas ou buscar orientação espiritual.
Leia mais:
- Mais de um milhão de usuários conversam sobre suicídio com o ChatGPT toda semana, diz OpenAI
- As decisões sobre o ChatGPT que tiram o sono de Sam Altman
- OpenAI revela dados sobre saúde mental de usuários do ChatGPT
As ações acusam a OpenAI de priorizar o engajamento e o tempo de uso em detrimento da segurança dos usuários.
Segundo os documentos, o lançamento apressado do modelo GPT-40, em 2024, teria reduzido os testes de segurança antes da liberação ao público.
Enquanto as investigações prosseguem, a discussão sobre até onde vai à responsabilidade das empresas de IA está apenas começando — e promete moldar o futuro da relação entre humanos e máquinas.