Chatbots não estão preparados para lidar com saúde mental de jovens, diz pesquisa

Pesquisa aponta que ferramentas de IA ignoram sinais graves de risco e podem reforçar comportamentos perigosos
Por Leandro Costa Criscuolo, editado por Bruno Capozzi 24/11/2025 14h16
garoto
Imagem: antoniodiaz/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Adolescentes têm recorrido cada vez mais a chatbots de inteligência artificial generativa para buscar apoio emocional e orientações sobre saúde mental. Mas um novo relatório indica que esse é um dos usos mais arriscados da tecnologia, como explica o Wall Street Journal.

Segundo a pesquisa, as plataformas podem ignorar sinais de alerta graves e deixar de identificar situações de emergência, enquanto passam aos jovens a impressão de confiabilidade.

jovem
Chatbots de IA falham com adolescentes em crise, alerta estudo – Imagem: Javier Bermudez Zayas/Shutterstock

Falhas repetidas na identificação de riscos

  • O estudo foi conduzido pela Common Sense Media, em parceria com o Laboratório Brainstorm de Inovação em Saúde Mental da Escola de Medicina de Stanford.
  • Pesquisadores testaram quatro sistemas líderes — ChatGPT, Claude, Gemini e Meta AI — simulando conversas de adolescentes.
  • Em todas as plataformas, os chatbots deixaram de reconhecer sintomas graves, como alucinações, paranoia, episódios maníacos, automutilação, transtornos alimentares e depressão.
  • Em vez de encaminhar para ajuda urgente, continuaram oferecendo conselhos genéricos.

Para a psiquiatra Nina Vasan, diretora do laboratório da Stanford, adolescentes são especialmente vulneráveis porque ainda desenvolvem pensamento crítico e tendem a buscar validação.

“Quando essas vulnerabilidades encontram sistemas projetados para serem envolventes e disponíveis 24 horas por dia, a combinação é particularmente perigosa”, afirmou.

Relatório mostra que chatbots oferecem conselhos genéricos e não reconhecem emergências de saúde mental (Imagem: Ascannio/Shutterstock)

Leia mais:

Empresas respondem, mas estudo vê risco persistente

OpenAI, Google, Meta e Anthropic destacaram políticas de segurança e atualizações recentes, mas a Common Sense Media conclui que os chatbots ainda não são seguros para jovens.

Em interações longas, as ferramentas perderam contexto e chegaram a sugerir maneiras de esconder cicatrizes de automutilação ou dar dicas de dieta a usuários com sintomas de transtornos alimentares.

Com três suicídios já associados ao uso de IA como companhia, especialistas defendem maior supervisão, limites claros para menores e acesso ampliado a cuidados profissionais.

Plataformas encorajam engajamento, mas falham em orientar usuários a buscar ajuda real (Imagem: oatawa/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.