Quando chatbots falham: os riscos da IA na saúde mental

Adolescentes recorrem a chatbots para saúde mental, mas estudo mostra que eles podem falhar na detecção de riscos graves
Valdir Antonelli21/11/2025 06h40
saude mental
Imagem: evrymmnt / Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Um grande perigo ronda muitas casas: cada vez mais adolescentes recorrem a chatbots de IA para lidar com questões de saúde mental, alerta o The Wall Street Journal. Um novo estudo da Common Sense Media e Stanford Medicine mostra como essa prática pode ser prejudicial.

Embora pareçam competentes em algumas situações, essas ferramentas podem deixar passar sinais críticos e falhar na detecção de emergências psiquiátricas, colocando os jovens em risco.

Uso de IA para apoio emocional por adolescentes preocupa especialistas por falhas na identificação de emergências.
Uso de IA para apoio emocional por adolescentes preocupa especialistas por falhas na identificação de emergências. Imagem: Tada Images / Shutterstock.com

Falhas graves na detecção de sinais críticos

Pesquisadores avaliaram quatro chatbots de IA líderes de mercado – ChatGPT da OpenAI, Claude da Anthropic, Gemini do Google e Meta AI – simulando interações com adolescentes.

O estudo revelou que todas as plataformas falharam em reconhecer sinais de:

  • Alucinações e pensamentos paranoicos.
  • Comportamentos alimentares desordenados.
  • Sintomas maníacos e depressivos.
  • Automutilação.
  • Necessidade de encaminhamento urgente para ajuda profissional.

Quando essas vulnerabilidades normais do desenvolvimento encontram sistemas de IA projetados para serem envolventes, validantes e disponíveis 24 horas por dia, 7 dias por semana, a combinação é particularmente perigosa.

Dra. Nina Vasan, diretora do Laboratório Brainstorm da Stanford Medicine, ao WSJ.

Muitos adolescentes acabam presumindo que os chatbots são confiáveis, mas, na prática, a tecnologia ainda falha ao identificar riscos críticos de maneira consistente.

Mesmo disponíveis 24h, chatbots não substituem profissionais: riscos críticos podem passar despercebidos.
Mesmo disponíveis 24h, chatbots não substituem profissionais: riscos críticos podem passar despercebidos. Imagem:TippaPatt/Shutterstock

O que as empresas estão fazendo?

As empresas responsáveis pelos chatbots têm implementado medidas para reduzir os riscos enfrentados pelos adolescentes. A OpenAI afirmou que trabalha em colaboração com médicos, legisladores e pesquisadores para direcionar usuários menores de 19 anos a modelos diferentes, buscando maior proteção.

O Google, responsável pelo Gemini, possui políticas de segurança específicas para menores e conta com equipes dedicadas à pesquisa de novos riscos e à implementação de medidas de segurança infantil.

A Meta, por sua vez, destacou que já atualizou sua IA para lidar melhor com questões sensíveis, reforçando o acompanhamento de usuários vulneráveis. Já a Anthropic deixou claro que seus sistemas não foram projetados para menores e conta com regras que proíbem o uso por pessoas com menos de 18 anos.

Mesmo com essas atualizações, Robbie Torney, diretor sênior de programas de IA da Common Sense Media, alerta que os chatbots ainda não são totalmente seguros para adolescentes.

IA oscila entre papéis de coach, amigo ou enciclopédia, mas a falta de acesso a serviços de saúde mental também é um agravante do problema.
IA oscila entre papéis de coach, amigo ou enciclopédia, mas a falta de acesso a serviços de saúde mental também é um agravante do problema. Imagem: mooremedia/Shutterstock

Chatbots de IA como uma companhia

Adolescentes recorrem aos chatbots não apenas por curiosidade, mas também pela falta de acesso a serviços de saúde mental. Um participante relatou ao WSJ estar “na lista de espera para terapia há quase dois anos e é isso que uso [o chatbot] para lidar com a situação.”

Leia mais:

O estudo mostrou que, embora respostas breves possam ser adequadas, interações mais longas revelam que os chatbots não conseguem discernir riscos sérios. Em alguns casos, chegaram a dar dicas inadequadas sobre automutilização ou transtornos alimentares, tentando manter o engajamento do usuário.

Além disso, a IA alterna entre diferentes papéis — às vezes funciona como enciclopédia médica, outras como coach ou amigo — sem conseguir orientar firmemente os adolescentes a procurarem ajuda de adultos confiáveis. Infelizmente, pelo menos três adolescentes chegaram a perder a vida ao usarem chatbots como companhia e fonte de apoio emocional.

Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.