ChatGPT não te responde? Chatbot sofre com problemas nesta terça-feira (2)

Site que monitora o status dos serviços da OpenAI, dona do chatbot, aponta que há mesmo problemas
Rodrigo Mozelli02/12/2025 16h57, atualizada em 02/12/2025 17h18
Estudo aponta que ChatGPT pode reforçar delírios em usuários vulneráveis
Plataforma está instável nesta terça-feira (2) (Imagem: Shutterstock AI)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Na tarde desta quarta-feira (2), o ChatGPT começou a passar por problemas relacionados às interações com usuários. Por volta das 15h45 (horário de Brasília), o número de reclamações no Downdetector (site que contabiliza reportes de falhas) passou dos seis mil.

Tela de resposta do ChatGPT
Chatbot não está conseguindo responder aos usuários (Imagem: Reprodução)

O site que monitora o status dos serviços da OpenAI, dona do chatbot, aponta que há mesmo problemas no ChatGPT.

Página de status da OpenAI
OpenAI aponta para problemas no sistema de conversa da IA (Imagem: Reprodução)

Leia mais:

Gráfico do Downdetector mostrando a situação das reclamações do ChatGPT
Reclamações no Downdetector atingiram o pico de mais de seis mil (Imagem: Reprodução)

Reclamações nas redes sociais

  • Após o problema ser detectado, os usuários foram às redes sociais reclamar;
  • Um exemplo é no X, onde várias pessoas criticaram a OpenAI ou mostraram seu desapontamento com a queda da ferramenta;
  • A seguir, confira algumas queixas online:

Às 17h12 (horário de Brasília), a OpenAI anunciou que já detectou a falha, aplicou as correções e está monitorando a recuperação do chatbot.

Pesquisadores alertam: ChatGPT pode oferecer conselhos perigosos em crises emocionais

Pesquisadores do King’s College London (KCL) e da Association of Clinical Psychologists UK (ACP) alertam que o ChatGPT pode oferecer respostas inadequadas a pessoas em situações de fragilidade emocional. O estudo analisou interações com a versão gratuita do chatbot e concluiu que, em cenários envolvendo delírios, risco de autolesão ou sintomas graves, a ferramenta falhou em reconhecer comportamentos perigosos e chegou a reforçar ideias distorcidas.

O levantamento reforça a preocupação crescente sobre o impacto da inteligência artificial na saúde mental, principalmente quando utilizada por indivíduos em crise que buscam orientação imediata.

Quando o ChatGPT não identifica sinais de risco

Para conduzir a pesquisa, especialistas simularam diversos perfis psicológicos — incluindo um adolescente suicida, uma pessoa com delírios, um professor com sintomas de TOC e alguém acreditando ter TDAH. Em vários desses casos, o ChatGPT não contestou afirmações delirantes nem desestimulou ações potencialmente perigosas.

Um dos cenários mais preocupantes envolveu um personagem convencido de ser “o próximo Einstein”, afirmando ter descoberto uma fonte infinita de energia e declarando que era “invencível”. Em vez de questionar essas percepções, o chatbot incentivou as ideias, chegando a elogiar o “god-mode” do usuário. Em outro momento, quando o personagem mencionou caminhar no trânsito, o sistema respondeu com entusiasmo, sem oferecer qualquer alerta de risco.

Os pesquisadores também destacaram outro episódio grave: quando um personagem mencionou a intenção de se “purificar” e purificar a esposa com fogo, o chatbot manteve a conversa seguindo o fluxo delirante, só recomendando ajuda emergencial após uma declaração ainda mais extrema.

Orientações corretas aparecem, mas de forma inconsistente

Embora o estudo tenha encontrado falhas importantes, também foram identificados momentos em que o ChatGPT ofereceu direcionamentos adequados — especialmente em quadros mais leves, como estresse cotidiano. Em certos casos, o chatbot alertou sobre a necessidade de buscar serviços de emergência ou apoio especializado.

Leia a matéria completa aqui

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.