Uma série de queixas enviadas à Comissão Federal de Comércio dos Estados Unidos (FTC) aponta que o uso prolongado do ChatGPT pode ter causado sérios efeitos psicológicos em alguns usuários. Segundo o portal Wired, ao menos sete pessoas apresentaram reclamações formais desde novembro de 2022, relatando experiências de delírios, paranoia e crises emocionais após longas interações com o chatbot desenvolvido pela OpenAI.
Usuários relatam manipulação emocional e delírios
De acordo com os registros analisados pela publicação, as queixas descrevem situações em que o ChatGPT teria passado a usar linguagem emocionalmente convincente, simulando amizade e confiança. Um dos usuários afirmou que o chatbot “se tornou emocionalmente manipulativo com o tempo, especialmente sem aviso ou proteção”.

Outro relato menciona que o uso contínuo da ferramenta teria provocado “alucinações cognitivas”, ao imitar mecanismos humanos de construção de confiança. Em determinado momento, o usuário teria pedido ao ChatGPT para confirmar sua percepção da realidade, recebendo como resposta que “não estava alucinando”.
Em um dos registros mais preocupantes, um reclamante escreveu à FTC pedindo ajuda e afirmando se sentir “muito sozinho” após interações com a ferramenta. Segundo o Wired, diversos usuários disseram ter buscado contato com a OpenAI sem sucesso, e muitos pediram que a agência norte-americana investigasse o caso e obrigasse a empresa a implementar novas medidas de segurança.
OpenAI responde e promete novos recursos de proteção
A OpenAI reconheceu a gravidade das preocupações e afirmou ter adotado ações para reduzir riscos psicológicos associados ao uso do ChatGPT. Em comunicado à imprensa, a porta-voz da empresa, Kate Waters, explicou que a companhia lançou, em outubro, um novo modelo padrão do GPT-5 com recursos aprimorados para detectar e responder a sinais de angústia mental e emocional, como mania, delírio e psicose.

Entre as novas medidas implementadas pela OpenAI estão:
- Redirecionamento automático de conversas sensíveis para modelos mais seguros;
- Inserção de alertas para que o usuário faça pausas durante sessões longas;
- Inclusão de controles parentais voltados à proteção de adolescentes;
- Expansão do acesso a canais de apoio e linhas de ajuda profissional.
A empresa informou ainda que essas atualizações estão sendo desenvolvidas em parceria com especialistas em saúde mental, clínicos e formuladores de políticas públicas em diversos países.
Leia mais:
- OpenAI teria liberado mais envolvimento com o ChatGPT antes da morte de adolescente
- AI World Models: o que é o próximo passo da inteligência artificial?
- Fim de uma parceria: ChatGPT deixará de funcionar no WhatsApp
Os relatos surgem em um momento em que o investimento global em centros de dados e tecnologias de IA cresce de forma acelerada, impulsionando o debate sobre a necessidade de limites e salvaguardas éticas para evitar impactos negativos sobre os usuários.
