A OpenAI divulgou nesta segunda-feira (27) dados preocupantes sobre a saúde mental de seus usuários. Segundo a empresa, cerca de 0,15% dos usuários ativos do ChatGPT em uma semana apresentam “indicadores explícitos de potencial planejamento ou intenção suicida”.
Considerando que a plataforma possui mais de 800 milhões de usuários semanais, isso representa mais de um milhão de pessoas por semana.
Além disso, a OpenAI afirma que uma porcentagem semelhante demonstra apego emocional elevado ao chatbot, enquanto centenas de milhares de usuários apresentam sinais de psicose ou mania durante as conversas semanais com a IA.
A empresa classifica essas situações como “extremamente raras”, mas reconhece que afetam centenas de milhares de pessoas semanalmente.

Esforços da OpenAI para aumentar a segurança
- A divulgação acompanha o anúncio de melhorias no GPT-5, que agora responde de forma mais adequada e consistente a problemas de saúde mental.
- A OpenAI afirma que consultou mais de 170 especialistas para atualizar o modelo.
- Em testes de conversas suicidas, o GPT-5 atual mostrou 91% de compatibilidade com respostas consideradas desejáveis, ante 77% do modelo anterior.
Leia mais:
- ChatGPT ganha novos recursos e quer mudar a forma como usamos a internet
- ChatGPT ‘físico’ quer ser seu amigo de IA; veja o que já sabemos sobre o produto
- Booking, Canva… agora você pode interagir com aplicativos pelo ChatGPT

A empresa também implementou novos parâmetros de segurança para dependência emocional e emergências não suicidas, além de controles para pais e mecanismos de previsão de idade que identificam automaticamente crianças que usam o ChatGPT.
O CEO Sam Altman afirmou que os ajustes “mitigaram graves problemas de saúde mental”, embora parte das respostas do ChatGPT ainda seja considerada indesejável, especialmente em conversas longas.
Desafios persistem e questionamentos legais
Questões de saúde mental envolvendo chatbots de IA têm se tornado uma preocupação crescente. A OpenAI enfrenta processos legais, incluindo de pais de um adolescente que se suicidou após interações com o ChatGPT, e alertas de procuradores-gerais sobre a proteção de usuários jovens.
Apesar das melhorias, a persistência de respostas inadequadas e a disponibilidade de versões antigas do modelo continuam levantando dúvidas sobre a segurança da plataforma.
