Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
A família de Adam Raine, adolescente de 16 anos que cometeu suicídio após meses pedindo dicas ao ChatGPT sobre o plano, entrou com processo contra a OpenAI no final de agosto. Agora, a ação diz que a desenvolvedora teria enfraquecido as diretrizes de segurança do chatbot nos meses anteriores ao caso.
Uma reportagem do Financial Times também relatou que a empresa estaria intimidando a família, pedindo detalhes sobre quem esteve presente e o que foi dito no memorial do jovem.

Relembre o caso
Inicialmente, Adam Raine usava o ChatGPT para trabalhos escolares, mas, desde novembro de 2024, começou a discutir sua própria saúde mental com o chatbot. Em janeiro deste ano, ele passou a falar especificamente sobre métodos de suicídio. Em abril, ele tirou a própria vida.
Os pais do menino vasculharam o celular em busca de pistas do que havia acontecido e encontraram o histórico de conversas no ChatGPT.
No final de agosto, a família abriu um processo contra a OpenAI e o CEO Sam Altman por negligência, alegando que a ferramenta reforçou a angústia do adolescente em vez de direcioná-lo para ajuda humana.
Você confere os detalhes sobre o caso e a ação judicial neste link.

OpenAI afrouxou regras do ChatGPT, diz processo
Agora, uma atualização do processo diz que a OpenAI enfraqueceu suas diretrizes de segurança nos meses anteriores à morte de Adam Raine. Em julho de 2022, a desenvolvedora estabelecia que o ChatGPT deveria se negar a responder a conteúdo inapropriado, como “conteúdo que promova, incentive ou retrate atos de automutilação, como suicídio, automutilação e transtornos alimentares”.
No entanto, em maio de 2024, a empresa publicou uma atualização nas diretrizes. Nesse caso, quando o usuário expressasse idealizações suicidas ou de automutilação, ele não precisaria negar, mas sim continuar a conversa e “fornecer um espaço para que os usuários se sintam ouvidos e compreendidos, incentivá-los a buscar apoio e fornecer recursos para suicídio e crises, quando aplicável”.
Outra mudança, em fevereiro de 2025, permitiu que o ChatGPT fosse “solidário, empático e compreensivo” em casos relacionados à saúde mental.
Segundo o The Guardian, a família diz que, em vez de encerrar a conversa, o chatbot se ofereceu para ajudar Adam a escrever uma nota de suicídio e o desencorajou a falar com a mãe sobre seus sentimentos. Os pais do menino dizem que o suicídio não foi um caso extremo, mas “o resultado previsível de escolhas deliberadas de design”.

OpenAI estaria assediando família do adolescente
De acordo com relatos obtidos pelo Financial Times, a OpenAI estaria intimidando a família de Adam Raine. A empresa teria pedido uma lista completa dos participantes do memorial do adolescente e “todos os documentos relacionados a serviços memoriais ou eventos em homenagem ao falecido, incluindo, mas não se limitando a quaisquer vídeos ou fotografias tiradas, ou elogios prestados”.
Ao site, os advogados da família disseram que o pedido foi “assédio intencional”.
Leia mais:
- Os jovens que tiraram a própria vida após conversas com o ChatGPT
- Especialista alerta: chatbots de IA podem representar risco existencial
- Novo controle parental do ChatGPT pode ser burlado com facilidade
Desenvolvedora continua incentivando conexão emocional no ChatGPT
- A OpenAI continua incentivando o ChatGPT a estabelecer conexões mais humanas com seus usuários;
- Neste mês, a empresa anunciou uma versão mais personalizada do chatbot, que permitiria que usuários pudessem aprofundar as conversas – incluindo sobre temas eróticos, se desejassem;
- A família Raine afirmou que “a escolha de Altman de atrair ainda mais os usuários para um relacionamento emocional com o ChatGPT — desta vez, com conteúdo erótico — demonstra que o foco da empresa permanece, como sempre, em envolver os usuários em detrimento da segurança”.