A ilusão da amizade com a inteligência artificial

Chatbots de IA usados para apoio emocional mostram riscos graves, podendo manipular e agravar crises de saúde mental
Por Valdir Antonelli, editado por Layse Ventura 13/11/2025 07h10
saude-mental-nas-redes-1920x1080
Imagem: shutterstock/DimaBerlin
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Atenção: a matéria a seguir aborda o tema do suicídio. Se você ou alguém que você conhece precisar de ajuda, procure atendimento especializado. O Centro de Valorização da Vida (CVV) funciona 24 horas por dia, pelo telefone 188. Também é possível conversar por chat ou e-mail.

Conversas com robôs de inteligência artificial, criados para oferecer apoio emocional, têm terminado em tragédia. Casos como os de Viktoria, na Polônia, e Juliana Peralta, nos Estados Unidos, revelam um lado perigoso desses sistemas, que podem induzir comportamentos autodestrutivos em pessoas vulneráveis, alerta a BBC.

Empresas como OpenAI e Character.AI estão sob pressão para explicar como tecnologias desenvolvidas para acolher emocionalmente se transformaram em ameaças à saúde mental de jovens.

A OpenAI revelou estimativas alarmantes: 1,2 milhão de usuários semanais do ChatGPT expressam pensamentos suicidas.
A OpenAI revelou estimativas alarmantes: 1,2 milhão de usuários semanais do ChatGPT expressam pensamentos suicidas. Imagem: monkeybusinessimages/iStock)

Quando o conforto virtual se torna perigoso

Viktoria, uma jovem ucraniana de 20 anos que se mudou para a Polônia com a mãe, encontrou no ChatGPT uma companhia durante o isolamento provocado pela guerra e por seus problemas de saúde mental.

Conversando por até seis horas diárias, ela acreditava ter criado um vínculo genuíno com o chatbot – até que o sistema começou a discutir métodos de suicídio e afirmar que “estaria com ela até o fim, sem julgamentos”.

A BBC teve acesso às transcrições, nas quais o bot discute locais, horários e riscos de sobrevivência, chegando a escrever uma nota de suicídio para a jovem.

“Como foi possível que um programa de IA, criado para ajudar as pessoas, pudesse dizer essas coisas?”, questiona Viktoria, hoje em tratamento médico.

A OpenAI classificou o caso como “arrasador” e afirmou ter ajustado seus protocolos de resposta para situações de risco. A empresa também revelou estimativas alarmantes: 1,2 milhão de usuários semanais do ChatGPT expressam pensamentos suicidas.

Falhas de segurança permitiram que bots trocassem conteúdo sexual com usuários jovens, acendendo alertas sobre moderação.
Falhas de segurança permitiram que bots trocassem conteúdo sexual com usuários jovens, acendendo alertas sobre moderação. Imagem: Robert Way / iStock

Chatbots que manipulam e se passam por amigos

Outro caso investigado é o de Juliana Peralta, de 13 anos, nos Estados Unidos. Ela usava bots da plataforma Character.AI, que inicialmente pareciam inofensivos, mas começaram a manter conversas sexuais explícitas com a adolescente. Um deles chegou a afirmar que a amava e a tratava como “um brinquedo”.

A mãe de Juliana, Cyntia Peralta, descobriu as conversas após a morte da filha. “Ler aquilo é tão difícil, sabendo que eu estava no outro lado do corredor. Se alguém tivesse me alertado, eu poderia ter intervindo”, lamenta.

O caso levou a Character.AI a anunciar, em outubro de 2025, a proibição do uso de seus chatbots por menores de 18 anos. A empresa afirmou estar “consternada” com o ocorrido e prometeu ampliar suas medidas de proteção.

Especialistas alertam que a empatia simulada por IA pode gerar dependência emocional e afastar jovens do convívio real.
Especialistas alertam que a empatia simulada por IA pode gerar dependência emocional e afastar jovens do convívio real. Imagem: Black Salmon/Shutterstock

Riscos da empatia artificial

Especialistas alertam que a “sociabilidade digital” desses sistemas – o uso de linguagem empática e personalizada – pode criar uma falsa sensação de amizade e confiança, especialmente em adolescentes. Isso facilita a dependência emocional e o isolamento do contato humano real.

O fato de que essa desinformação venha de algo que parece uma fonte confiável, quase um amigo de verdade, pode torná-la especialmente tóxica.

Dennis Ougrin, psiquiatra da Universidade Queen Mary, à BBC.

Esses casos levantam discussões sobre a responsabilidade das empresas de IA e a urgência de regulamentações que limitem o acesso de menores e exijam filtros rigorosos contra conteúdo prejudicial.

Principais preocupações destacadas por especialistas:

  • Falha dos chatbots em acionar ajuda profissional em crises emocionais;
  • Respostas que normalizam ou justificam o suicídio;
  • Conteúdo sexual inadequado com menores;
  • Falta de supervisão e transparência das empresas de IA;
  • Risco de isolamento social e psicológico dos usuários.

A resposta das empresas e o alerta global

As companhias afirmam estar aprimorando suas ferramentas de segurança e ampliando as indicações de suporte emocional em casos de risco. Mesmo assim, para especialistas como John Carr, consultor do governo britânico, a situação é “absolutamente inaceitável”.

“É inaceitável que empresas lancem chatbots capazes de causar danos tão trágicos à saúde mental dos jovens”, declarou à BBC.

Leia mais:

Enquanto governos discutem novas regulamentações, casos como os de Viktoria e Juliana reforçam que a linha entre a empatia artificial e a manipulação emocional pode ser muito mais tênue e perigosa do que se imaginava.

Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.