Homem segue orientação do ChatGPT e desenvolve problema de saúde raro

Homem de 60 anos precisou ser hospitalizado nos EUA após IA recomendar a substituição do sal pelo brometo
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 14/08/2025 00h05, atualizada em 14/08/2025 11h39
app do ChatGPT em um smartphone
Chatbot da OpenAI completa mais um ano de vida – e já tem muita coisa para contar (Imagem: Primakov/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Milhares de pessoas têm utilizado a inteligência artificial para responder as mais diferentes perguntas. No entanto, um caso registrado nos Estados Unidos reforça as discussões sobre os cuidados na hora de seguir as recomendações feitas pelos chatbots.

Um homem de 60 anos precisou ser hospitalizado após desenvolver uma doença rara ao seguir orientações de dieta indicadas pelo ChatGPT. Os médicos responsáveis por atender o paciente descreveram o episódio na revista Annals of Internal Medicine.

Aplicativo do ChatGPT sendo aberto em um celular e no fundo o logo da Open AI, empresa que desenvolveu a ferramenta
Chatbot recomendou substituir sal pelo brometo (Imagem: Fabio Principe/Shutterstock)

ChatGPT recomendou mudança na dieta do paciente

  • De acordo com a equipe médica, o homem chegou ao hospital com crises de paranoia.
  • Ele acreditava que o vizinho estava tentando envenená-lo e que a água do filtro estava contaminada.
  • A suspeita inicial era de um transtorno psiquiátrico.
  • No entanto, após receber os minerais e vitaminas que estavam em níveis muito baixos no organismo, ele voltou ao estado normal e contou aos médicos o que havia acontecido.
  • O homem disse que havia lido sobre os supostos efeitos negativos do cloreto de sódio.
  • Buscando alternativas, ele consultou o ChatGPT.
  • A IA, então, recomendou a substituição do sal pelo brometo.

Leia mais

Sal derramado na mesa formando um desenho de coração
Homem estava preocupado com os efeitos do sal para a sua saúde (Sharif Pavlov/Shutterstock)

Chatbots não deve ser utilizados para diagnóstico ou tratamento

Os médicos explicaram que o paciente seguiu as recomendações da ferramenta por três meses, o que levou à intoxicação por brometos. Chamada de bromismo, essa é uma condição rara que pode provocar alucinações. Após três semanas de internação, os níveis no organismo dele se normalizaram.

Os autores do artigo, da Universidade de Washington, em Seattle, disseram que não conseguiram acessar o registro das conversas do paciente no ChatGPT. No entanto, os próprios profissionais consultaram a ferramenta e receberam a resposta de que o brometo poderia ser usado para substituir o sal na dieta.

Caso serve de alerta na hora de usar ferramentas de IA (Imagem: Anggalih Prasetya/Shutterstock)

Segundo os médicos, o caso evidencia como “o uso de inteligência artificial pode potencialmente contribuir para o desenvolvimento de resultados adversos de saúde”. Eles também lembraram que a tecnologia pode “gerar imprecisões científicas”, alimentando a disseminação de desinformação.

A OpenAI, responsável pelo ChatGPT, observa que o chatbot não é pode ser utilizado como um substituto dos médicos. As diretrizes da ferramenta ainda destacam que ele não é “destinado ao uso no diagnóstico ou tratamento de qualquer condição de saúde”.

Alessandro Di Lorenzo
Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.