Siga o Olhar Digital no Google Discover
Adolescentes têm recorrido cada vez mais a chatbots de inteligência artificial generativa para buscar apoio emocional e orientações sobre saúde mental. Mas um novo relatório indica que esse é um dos usos mais arriscados da tecnologia, como explica o Wall Street Journal.
Segundo a pesquisa, as plataformas podem ignorar sinais de alerta graves e deixar de identificar situações de emergência, enquanto passam aos jovens a impressão de confiabilidade.

Falhas repetidas na identificação de riscos
- O estudo foi conduzido pela Common Sense Media, em parceria com o Laboratório Brainstorm de Inovação em Saúde Mental da Escola de Medicina de Stanford.
- Pesquisadores testaram quatro sistemas líderes — ChatGPT, Claude, Gemini e Meta AI — simulando conversas de adolescentes.
- Em todas as plataformas, os chatbots deixaram de reconhecer sintomas graves, como alucinações, paranoia, episódios maníacos, automutilação, transtornos alimentares e depressão.
- Em vez de encaminhar para ajuda urgente, continuaram oferecendo conselhos genéricos.
Para a psiquiatra Nina Vasan, diretora do laboratório da Stanford, adolescentes são especialmente vulneráveis porque ainda desenvolvem pensamento crítico e tendem a buscar validação.
“Quando essas vulnerabilidades encontram sistemas projetados para serem envolventes e disponíveis 24 horas por dia, a combinação é particularmente perigosa”, afirmou.

Leia mais:
- Facebook e Messenger ganham contas exclusivas para adolescentes
- YouTube lança seção de saúde mental voltada para adolescentes
- Internet deveria nos unir, mas está nos separando. Existe uma solução?
Empresas respondem, mas estudo vê risco persistente
OpenAI, Google, Meta e Anthropic destacaram políticas de segurança e atualizações recentes, mas a Common Sense Media conclui que os chatbots ainda não são seguros para jovens.
Em interações longas, as ferramentas perderam contexto e chegaram a sugerir maneiras de esconder cicatrizes de automutilação ou dar dicas de dieta a usuários com sintomas de transtornos alimentares.
Com três suicídios já associados ao uso de IA como companhia, especialistas defendem maior supervisão, limites claros para menores e acesso ampliado a cuidados profissionais.
