Siga o Olhar Digital no Google Discover
Adolescentes têm recorrido cada vez mais a chatbots de inteligência artificial generativa para buscar apoio emocional e orientações sobre saúde mental. Mas um novo relatório indica que esse é um dos usos mais arriscados da tecnologia, como explica o Wall Street Journal.
Ofertas
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Segundo a pesquisa, as plataformas podem ignorar sinais de alerta graves e deixar de identificar situações de emergência, enquanto passam aos jovens a impressão de confiabilidade.

Falhas repetidas na identificação de riscos
- O estudo foi conduzido pela Common Sense Media, em parceria com o Laboratório Brainstorm de Inovação em Saúde Mental da Escola de Medicina de Stanford.
- Pesquisadores testaram quatro sistemas líderes — ChatGPT, Claude, Gemini e Meta AI — simulando conversas de adolescentes.
- Em todas as plataformas, os chatbots deixaram de reconhecer sintomas graves, como alucinações, paranoia, episódios maníacos, automutilação, transtornos alimentares e depressão.
- Em vez de encaminhar para ajuda urgente, continuaram oferecendo conselhos genéricos.
Para a psiquiatra Nina Vasan, diretora do laboratório da Stanford, adolescentes são especialmente vulneráveis porque ainda desenvolvem pensamento crítico e tendem a buscar validação.
“Quando essas vulnerabilidades encontram sistemas projetados para serem envolventes e disponíveis 24 horas por dia, a combinação é particularmente perigosa”, afirmou.

Leia mais:
- Facebook e Messenger ganham contas exclusivas para adolescentes
- YouTube lança seção de saúde mental voltada para adolescentes
- Internet deveria nos unir, mas está nos separando. Existe uma solução?
Empresas respondem, mas estudo vê risco persistente
OpenAI, Google, Meta e Anthropic destacaram políticas de segurança e atualizações recentes, mas a Common Sense Media conclui que os chatbots ainda não são seguros para jovens.
Em interações longas, as ferramentas perderam contexto e chegaram a sugerir maneiras de esconder cicatrizes de automutilação ou dar dicas de dieta a usuários com sintomas de transtornos alimentares.
Com três suicídios já associados ao uso de IA como companhia, especialistas defendem maior supervisão, limites claros para menores e acesso ampliado a cuidados profissionais.
