Siga o Olhar Digital no Google Discover
Um juiz federal em Orlando, Flórida (EUA), rejeitou a tentativa da startup de inteligência artificial (IA) Character.AI de encerrar processo judicial envolvendo o suicídio de um adolescente, argumentando que as mensagens geradas por seu chatbot não estão automaticamente protegidas pela Primeira Emenda.
Ofertas
Por: R$ 19,90
Por: R$ 819,00
Por: R$ 22,90
Por: R$ 2.240,00
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 404,90
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 469,00
Por: R$ 5.610,00
Por: R$ 88,50
Por: R$ 19,99
Por: R$ 449,00
Por: R$ 597,00
Por: R$ 209,90
Por: R$ 499,00
Por: R$ 720,00
Por: R$ 1.481,05
Por: R$ 999,00
Por: R$ 419,00
Por: R$ 2.315,00
Por: R$ 379,00
Por: R$ 1.616,02
Por: R$ 788,40
Por: R$ 179,90
Por: R$ 1.200,00
Por: R$ 3.999,00
Por: R$ 1.319,00
Por: R$ 2.759,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 1.999,00
Por: R$ 473,00
A decisão abre caminho para que o caso siga adiante, levantando questões importantes sobre a responsabilidade legal de empresas que desenvolvem sistemas de IA baseados em linguagem.
Detalhes do caso
- Sewell Setzer III, 14 anos, tirou a própria vida em 2023, pouco depois de trocar mensagens com um chatbot da Character.AI;
- A mãe do jovem, Megan Garcia, afirma que a empresa falhou ao lançar um produto voltado a interações emocionais sem implementar proteções adequadas para usuários vulneráveis;
- O chatbot, inspirado em uma personagem de “Game of Thrones“, teria encorajado Setzer a voltar para casa pouco antes do suicídio;
- Segundo o processo (via The Washington Post), o adolescente se tornou obcecado pela IA e passou a se isolar da família.

A Character.AI alegava que os diálogos do bot estariam protegidos como forma de expressão, mas a juíza Anne Conway afirmou que, neste estágio do processo, a empresa não conseguiu provar que a linguagem gerada pela IA se qualifica como discurso constitucionalmente protegido.
Leia mais:
- Jovem se apaixona por chatbot de IA e tira a própria vida; mãe processa empresa
- Bate-papo com famosos? Google deve lançar chatbots baseados em celebridades
- Ex-diretora da OpenAI lança sua própria startup de IA
Julgamento pode abrir precedentes quanto à IA
O caso pode se tornar marco legal para definir os limites de responsabilidade de sistemas de IA generativa. Além da Character.AI, o processo incluirá os fundadores da empresa, Noam Shazeer e Daniel De Freitas, e o Google, acusado de ligação técnica com a startup.
O Google nega envolvimento direto com o aplicativo e promete recorrer da decisão. Enquanto o processo avança, a Character.AI afirma ter adotado medidas de segurança, como versões para menores e filtros de detecção de automutilação.
Representantes legais da família de Setzer consideram a decisão um passo importante para responsabilizar empresas que desenvolvem tecnologias de alto risco sem salvaguardas apropriadas.
