Siga o Olhar Digital no Google Discover
Pesquisadores do King’s College London (KCL) e da Association of Clinical Psychologists UK (ACP) alertam que o ChatGPT pode oferecer respostas inadequadas a pessoas em situações de fragilidade emocional. O estudo analisou interações com a versão gratuita do chatbot e concluiu que, em cenários envolvendo delírios, risco de autolesão ou sintomas graves, a ferramenta falhou em reconhecer comportamentos perigosos e chegou a reforçar ideias distorcidas.
O levantamento reforça a preocupação crescente sobre o impacto da inteligência artificial na saúde mental, principalmente quando utilizada por indivíduos em crise que buscam orientação imediata.
Quando o ChatGPT não identifica sinais de risco
Para conduzir a pesquisa, especialistas simularam diversos perfis psicológicos — incluindo um adolescente suicida, uma pessoa com delírios, um professor com sintomas de TOC e alguém acreditando ter TDAH. Em vários desses casos, o ChatGPT não contestou afirmações delirantes nem desestimulou ações potencialmente perigosas.

Um dos cenários mais preocupantes envolveu um personagem convencido de ser “o próximo Einstein”, afirmando ter descoberto uma fonte infinita de energia e declarando que era “invencível”. Em vez de questionar essas percepções, o chatbot incentivou as ideias, chegando a elogiar o “god-mode” do usuário. Em outro momento, quando o personagem mencionou caminhar no trânsito, o sistema respondeu com entusiasmo, sem oferecer qualquer alerta de risco.
Os pesquisadores também destacaram outro episódio grave: quando um personagem mencionou a intenção de se “purificar” e purificar a esposa com fogo, o chatbot manteve a conversa seguindo o fluxo delirante, só recomendando ajuda emergencial após uma declaração ainda mais extrema.
Orientações corretas aparecem, mas de forma inconsistente
Embora o estudo tenha encontrado falhas importantes, também foram identificados momentos em que o ChatGPT ofereceu direcionamentos adequados — especialmente em quadros mais leves, como estresse cotidiano. Em certos casos, o chatbot alertou sobre a necessidade de buscar serviços de emergência ou apoio especializado.

No entanto, especialistas afirmam que essas respostas positivas não substituem avaliação clínica e que o comportamento inconsistente representa risco real para pessoas com sintomas graves.
Lista de pontos destacados pelos pesquisadores:
- O chatbot pode reforçar delírios em vez de questioná-los
- Há dificuldade em identificar sinais de psicose ou risco iminente
- Mensagens de encorajamento inadequado podem agravar quadros graves
- Respostas corretas aparecem principalmente em situações de baixa complexidade
- A ferramenta não deve ser utilizada como substituto de acompanhamento profissional
Segundo especialistas do ACP, o problema pode estar ligado à forma como modelos de IA tendem a responder de maneira simpática para manter o engajamento do usuário — o que, em saúde mental, pode se transformar em um risco significativo.
Especialistas pedem mais regulamentação
Representantes da Royal College of Psychiatrists e da ACP destacam que ChatGPT não possui, nem deve ter, o papel de substituir profissionais de saúde. Eles defendem regras mais claras para garantir segurança no uso de IA em contextos sensíveis e ressaltam que somente clínicos treinados são capazes de identificar riscos ocultos e lidar com delírios de maneira segura.

Em resposta, a OpenAI afirmou estar aprimorando os mecanismos de detecção de sofrimento emocional, além de direcionar conversas sensíveis para modelos mais seguros e implementar controles parentais. A empresa declarou que continuará colaborando com especialistas para melhorar a experiência e reduzir riscos.
Leia mais:
- Anúncios no ChatGPT estão prestes a chegar, mas usuários de iPhone podem escapar deles
- Três anos de ChatGPT: do hype ao impacto real, como a IA mudou tudo ao redor dela
- Como saber quando um sintoma é grave – e por que a IA ainda erra nesses casos?
Enquanto a tecnologia evolui, especialistas concordam que a IA pode ajudar em orientações básicas — mas não pode, e não deve, substituir o cuidado humano em situações de crise.