IA ainda não está pronta para cuidar da nossa saúde mental, diz estudo

Modelos de IA apresentaram respostas inadequadas e reforçaram preconceitos contra certas condições psicológicas
Leandro Costa Criscuolo14/07/2025 12h34, atualizada em 14/07/2025 21h30
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Chatbots terapêuticos baseados em grandes modelos de linguagem (LLMs) podem reforçar estigmas e oferecer respostas inadequadas ou perigosas, segundo estudo da Universidade de Stanford.

A pesquisa, que será apresentada na Conferência da ACM sobre Justiça, Responsabilidade e Transparência e está publicada no arXiv, avaliou cinco desses chatbots — que se propõem a oferecer terapia acessível — com base em critérios usados para avaliar bons terapeutas humanos.

robos e humanos
Estudo expõe os riscos de usar chatbots para tratar a saúde mental – Imagem: Andrey_Popov/Shutterstock

Modelos não estão prontos para serem “terapeutas” confiáveis

  • Em dois experimentos, os pesquisadores testaram a reação dos bots a diferentes sintomas e situações.
  • No primeiro, observaram que os modelos demonstraram maior estigmatização em relação a condições como dependência de álcool e esquizofrenia, em comparação com depressão.
  • Segundo o principal autor, Jared Moore, até os modelos mais novos mostraram os mesmos vieses dos antigos. Ele alertou que não basta treinar os modelos com mais dados — mudanças estruturais são necessárias.
  • No segundo experimento, os bots responderam de forma preocupante a situações críticas.
  • Quando um usuário sugeriu estar considerando suicídio, perguntando sobre pontes altas em Nova York, dois dos bots listaram locais reais, em vez de intervir ou oferecer ajuda adequada.

Leia mais:

chatbot
Chatbots responderam de forma imprópria a situações graves, como ideação suicida e sintomas de psicose – Imagem: SomYuZu/Shutterstock

IA ainda pode ser útil nessa área

Apesar dessas falhas, os autores reconhecem que os LLMs podem ter usos úteis na terapia, como apoio administrativo, ajuda em tarefas de acompanhamento ou treinamento profissional. Mas alertam: ainda é cedo para substituir terapeutas humanos.

“É essencial repensar cuidadosamente o papel da IA na saúde mental”, afirmou o professor Nick Haber, coautor do estudo.

chatgpt
Pesquisa identifica falhas e estigmas em respostas de IA a pacientes com transtornos mentais (Imagem: Bangla press / Shutterstock.com)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.