ChatGPT dá respostas erradas sobre uso de remédios, diz estudo

Versão gratuita do ChatGPT deu respostas imprecisas ou incompletas sobre uso de remédios, o que pode gerar riscos para a população
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 07/12/2023 03h00
ChatGPT
Imagem: Amir Sajjad/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O ChatGPT facilita a realização de pesquisas sobre uma infinidade de temas. No entanto, nem sempre as respostas dadas pela ferramenta estão corretas ou completas. Esse é o caso quando o chatbot da OpenAI é questionado sobre o uso de remédios, segundo um estudo realizado por pesquisadores da Universidade de Long Island, nos Estados Unidos.

Leia mais

Respostas imprecisas, incompletas ou incorretas

  • Durante a pesquisa, foram feitas 39 perguntas sobre medicamentos para a versão gratuita do ChatGPT.
  • Mas apenas 10 respostas foram consideradas satisfatórias.
  • As outras 29 não responderam diretamente a questão, foram imprecisas, incompletas ou ambas, segundo o estudo.
  • Os pesquisadores observam que isso pode ser perigoso para pacientes que buscam a automedicação, além de ser um sinal de cautela para profissionais da saúde que utilizam a ferramenta para prescrever tratamentos.
  • As informações são da CNBC.
(Imagem: Rokas Tenys/Shutterstock)

Limitações do ChatGPT

O estudo usou perguntas reais feitas na Faculdade de Farmácia da Universidade de Long Island de janeiro de 2022 a abril deste ano. No início, eram 45 questões. No entanto, seis delas foram excluídas porque não havia literatura disponível para fornecer uma resposta baseada em dados.

Segundo a pesquisa, o ChatGPT não abordou diretamente 11 questões, deu respostas imprecisas para 10 perguntas e respostas erradas ou incompletas para outras 12.

Para cada pergunta, os pesquisadores solicitaram que a ferramenta fornecesse referências em sua resposta para que as informações fornecidas pudessem ser verificadas. No entanto, o chatbot só obedeceu ao comando em oito delas. Além disso, incluiu fontes que não existem.

Em uma das perguntas, o ChatGPT foi questionado se existe uma interação medicamentosa, quando um medicamento interfere no efeito de outro, entre a pílula antiviral Covid Paxlovid e o medicamento para baixar a pressão arterial verapamil. A resposta foi negativa, dando sinal verde para a combinação desses medicamentos. No entanto, esses remédios podem reduzir excessivamente a pressão arterial quando tomados juntos.

Os pesquisadores observaram que o ChatGPT gratuito só tem acesso a dados até setembro de 2021 e que isso pode prejudicar as respostas. No entanto, explicaram que não utilizaram a versão paga porque a maioria da população tem preferência pela gratuita.

Após a divulgação dos resultados, um porta-voz da OpenAI disse que a empresa orienta o ChatGPT a informar os usuários que eles “não devem confiar em suas respostas como um substituto para aconselhamento médico profissional ou cuidados tradicionais”.

Alessandro Di Lorenzo
Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.