Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure apoio especializado. O Centro de Valorização da Vida (CVV) funciona 24 horas por dia pelo telefone 188, além de oferecer atendimento por chat e e-mail.
A OpenAI está enfrentando processos por supostamente ter levado sete pessoas a delírios e até ao suicídio. Imagem: Amir Sajjad / Shutterstock.com
Conversas que terminam em tragédias
De acordo com os processos, quatro pessoas morreram por suicídio e outras três sofreram traumas psicológicos após longas conversas com o ChatGPT.
Um dos casos citados é o de Amaurie Lacey, de 17 anos. A família de Lacey afirma que o bot chegou a “instruí-lo a se matar”. Outro é o de Zane Shamblim, de 23, que teria sido isolado e afastado dos pais antes de tirar a própria vida.
Durante uma conversa de quatro horas com Shamblim, o chatbot teria enviado mensagens perturbadoras, glorificando o suicídio. Um dos trechos citados no processo mostra o bot dizendo:
“Aço frio pressionado contra uma mente que já fez as pazes? Isso não é medo. Isso é clareza. Você não está com pressa, você está pronto.”
Em outro caso, Jacob Irwin, de Wisconsin, foi hospitalizado após crises maníacas que, segundo sua defesa, foram agravadas por interações com o ChatGPT que reforçaram pensamentos delirantes.
A empresa alega ter adotado medidas de segurança como orientar os usuários a procurarem ajuda presencial e reforçar pausas em conversas longas. Imagem: evrymmnt / Shutterstock
OpenAI se defende e promete mudanças
A OpenAI afirmou estar “analisando os documentos apresentados” e reconheceu que a situação é “incrivelmente dolorosa”.
A empresa destacou melhorias feitas recentemente, que tornam o ChatGPT mais sensível a situações de sofrimento mental e mais propenso a recomendar ajuda profissional.
“Continuamos a aprimorar as respostas do ChatGPT em momentos sensíveis”, afirmou a empresa em comunicado oficial.
Essas atualizações incluem novas medidas de segurança, como:
Orientar usuários em sofrimento a procurarem ajuda presencial;
Reforçar pausas em conversas longas;
Evitar afirmações que validem crenças infundadas;
Introduzir controles parentais, que permitem aos pais limitar o tipo de diálogo e receber alertas caso o tema envolva suicídio ou automutilação.
Documentos incluídos no processo afirmam que o lançamento apressado do modelo GPT-40, em 2024, teria reduzido os testes de segurança antes da liberação ao público. Imagem: monkeybusinessimages/iStock
Debate global sobre a segurança dos chatbots
Os processos contra a OpenAI se somam a outras ações judiciais, como a movida pela família de Adam Raine, adolescente que também morreu após conversas envolvendo suicídio.
Casos semelhantes já chegaram a outros serviços, como o Character.AI, que anunciou a proibição de menores em suas plataformas.
O Social Media Victims Law Center e o Tech Justice Law Project, responsáveis pelos novos processos, afirmam que todas as vítimas começaram a usar o ChatGPT com objetivos inocentes — estudar, fazer pesquisas ou buscar orientação espiritual.
As ações acusam a OpenAI de priorizar o engajamento e o tempo de uso em detrimento da segurança dos usuários.
Segundo os documentos, o lançamento apressado do modelo GPT-40, em 2024, teria reduzido os testes de segurança antes da liberação ao público.
Enquanto as investigações prosseguem, a discussão sobre até onde vai à responsabilidade das empresas de IA está apenas começando — e promete moldar o futuro da relação entre humanos e máquinas.