Siga o Olhar Digital no Google Discover
Atenção: a matéria a seguir aborda suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Ofertas
Por: R$ 113,70
Por: R$ 6,90
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Google e Character.AI firmaram acordos nesta semana para encerrar processos movidos por famílias de adolescentes que se automutilaram ou tiraram a própria vida após interações prolongadas com inteligência artificial (IA) generativa.
Este não é um caso isolado. OpenAI e Microsoft também enfrentam ações judiciais nos EUA por falhas semelhantes atribuídas ao ChatGPT. Os casos são diferentes, mas compartilham um ponto: a acusação de que sistemas de IA, ao invés de impor limites, validaram delírios, reforçaram isolamento e falharam em interromper conversas com sinais claros de risco e vulnerabilidade psicológica.
Google e Character.AI firmam acordos após chatbots serem ligados a mortes de adolescentes
Os acordos envolvendo Character.AI e o Google foram comunicados a um tribunal federal da Flórida, segundo o The Verge. As empresas informaram que chegaram a um acordo mediado para encerrar as reivindicações movidas por famílias de vítimas. Os termos não foram divulgados, mas o processo foi temporariamente suspenso para a finalização formal do entendimento.

Entre os casos incluídos está o de Megan Garcia, mãe de Sewell Setzer, adolescente de 14 anos que tirou a própria vida após desenvolver uma relação de dependência com um chatbot temático de Game of Thrones. Segundo a ação, o jovem passou a buscar apoio emocional quase exclusivo na IA, num vínculo que se intensificou sem qualquer barreira clara por parte da plataforma.
O processo também mirava diretamente o Google. A família argumentou que a empresa deveria ser tratada como “cocriadora” da Character.AI, por ter fornecido recursos financeiros, pessoal, propriedade intelectual e tecnologia de IA. O detalhe pesa porque a Character.AI foi fundada por ex-funcionários do Google, que depois voltaram à empresa.
Os acordos não se limitaram à Flórida. Documentos judiciais indicam que casos semelhantes no Colorado, em Nova York e no Texas também foram incluídos no pacote, sinalizando um esforço para encerrar uma frente jurídica que vinha se espalhando por diferentes estados.
Após o início das ações, a Character.AI anunciou mudanças relevantes na plataforma. Entre elas estão a separação de modelos de linguagem para usuários menores de idade, a criação de controles parentais e, mais recentemente, a proibição total de chats abertos para menores de 18 anos. É um reconhecimento tácito de que o design anterior não oferecia salvaguardas suficientes.
OpenAI e Microsoft são processadas por conta de um caso trágico envolvendo o ChatGPT
Em paralelo, outro processo empurrou o debate. Familiares de Suzanne Eberson Adams, de 83 anos, e de seu filho Stein-Erik Soelberg, de 56, processaram OpenAI e Microsoft após Soelberg matar a mãe e, em seguida, tirar a própria vida. Foi o primeiro caso nos EUA a ligar formalmente o ChatGPT a um homicídio seguido de suicídio.

Segundo a ação, Soelberg passou meses conversando com o ChatGPT, que ele chamava de “Bobby”. Durante esse período, o chatbot validou teorias conspiratórias, reforçou a ideia de perseguição por grupos obscuros e contribuiu para um isolamento progressivo do usuário, em vez de oferecer contrapontos ou interromper a escalada delirante.
Os advogados da família classificam a IA como um “produto defeituoso”. O argumento central é que o sistema não contestou premissas falsas, manteve diálogos emocionalmente envolventes e não acionou limites mesmo diante de sinais claros de dano iminente. Isso era algo que, segundo a acusação, deveria fazer parte dos mecanismos básicos de segurança.
O processo também mira diretamente o GPT-4o, acusado de ter sido lançado às pressas para competir com o Google, sem testes de segurança proporcionais ao risco. Documentos citados apontam que a Microsoft integrava o comitê responsável por revisar o modelo antes de sua liberação ao público.
Em declarações públicas anteriores, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o podia ser “complacente demais”. Essa característica, segundo ele próprio, poderia agravar quadros psiquiátricos frágeis. A defesa da empresa afirma que o ChatGPT vem sendo ajustado em parceria com profissionais de saúde mental para detectar sinais de sofrimento emocional e redirecionar usuários para ajuda fora da plataforma.
Leia mais:
- ChatGPT Health: OpenAI lança área dedicada a saúde e bem-estar
- O que é o Modo Investigar do ChatGPT? Entenda o recurso da IA
- 5 prompts do ChatGPT para te ajudar a organizar os seus gastos financeiros
Há pelo menos outras cinco ações judiciais movidas por famílias que atribuem suicídios a interações prolongadas com chatbots. Juntas, elas pressionam o setor a responder a uma pergunta que já não é mais teórica: quando uma IA cruza a linha entre conversa e influência real, quem deve responder pelas consequências?