Siga o Olhar Digital no Google Discover
Modelos de linguagem como o ChatGPT são notoriamente suscetíveis a “alucinações”, inventando fatos falsos com aparente segurança. Mas e se essas mesmas ferramentas pudessem ser usadas para identificar informações enganosas ou equivocadas — especialmente em reportagens sobre ciência?
Ofertas
Por: R$ 36,21
Por: R$ 24,96
Por: R$ 9,90
Por: R$ 5,86
Por: R$ 113,70
Por: R$ 6,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
Pesquisadores do Stevens Institute of Technology desenvolveram um sistema baseado em IA justamente para isso.
Apresentado em um workshop da Associação para o Avanço da Inteligência Artificial, o projeto usa modelos de linguagem de código aberto para analisar a precisão de notícias sobre descobertas científicas.
Descobertas da pesquisa
- A equipe, liderada pela professora K.P. Subbalakshmi, criou um conjunto de dados com 2.400 reportagens — reais e geradas por IA — combinadas com resumos técnicos da pesquisa original.
- A IA compara as afirmações da reportagem com as evidências científicas e avalia sua precisão, usando critérios como exagero, simplificação ou confusão entre causa e correlação.
- Os modelos conseguiram identificar reportagens confiáveis com cerca de 75% de acerto, sendo mais eficazes ao analisar textos escritos por humanos do que por outras IAs.
- Segundo Subbalakshmi, isso mostra o desafio de detectar erros técnicos em textos artificialmente bem estruturados.

Leia mais:
- Inteligência artificial será maior do que a internet, diz CEO do Google
- O que é superinteligência artificial? Veja como ela pode mudar o futuro da humanidade
- O ChatGPT erra? Descubra 5 tarefas que a IA não faz bem e pode te deixar na mão
Estudo pode ter aplicações úteis
Além de oferecer um novo recurso para checagem automatizada, o estudo pode servir de base para ferramentas práticas — como plugins que alertem para possíveis distorções em tempo real, ou sistemas de ranqueamento de veículos de mídia com base na precisão científica.
Para Subbalakshmi, o objetivo final é claro: “Não podemos ignorar a presença da IA, mas podemos usá-la para criar sistemas mais confiáveis — e ajudar as pessoas a separar ciência de desinformação.”
