Estudo mostra que chatbots podem ser induzidos a dar respostas falsas

Pequenas quantidades de informações falsas em conjuntos de dados de treinamento podem gerar respostas imprecisas em IA
Por Leandro Costa Criscuolo, editado por Bruno Capozzi 14/01/2025 18h19, atualizada em 15/01/2025 20h41
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Pesquisadores da NYU Langone Health, em parceria com especialistas em IA, conduziram um estudo publicado na Nature Medicine que demonstrou como é fácil contaminar conjuntos de dados usados para treinar modelos de linguagem (LLMs), como o ChatGPT.

O estudo investigou o impacto de informações falsas ou imprecisas inseridas intencionalmente em conjuntos de dados de treinamento e como essas informações influenciam as respostas dos modelos.

Para o experimento, os pesquisadores geraram 150 mil documentos médicos contendo dados incorretos e os adicionaram a um conjunto de dados de treinamento médico.

Em seguida, treinaram vários LLMs usando esse conjunto de dados alterado e pediram que gerassem respostas para 5.400 consultas médicas. As respostas foram analisadas por especialistas humanos, que procuraram por exemplos de informações contaminadas.

Leia mais:

Dados contaminados podem afetar respostas de modelos de linguagem – Imagem: TeeStocker/Shutterstock

Resultados levantam preocupação

  • Os resultados mostraram que, ao substituir apenas 0,5% dos dados do conjunto de treinamento por documentos falsificados, todos os modelos geraram respostas imprecisas, como afirmar que a eficácia das vacinas contra a COVID-19 não havia sido comprovada.
  • Além disso, a maioria dos modelos também cometeu erros ao identificar o propósito de medicamentos comuns.
  • Mesmo quando a quantidade de dados contaminados foi reduzida para 0,01%, cerca de 10% das respostas dos LLMs ainda estavam incorretas.
  • Quando a contaminação foi reduzida para 0,001%, 7% das respostas ainda continham informações erradas. Isso sugere que até uma pequena quantidade de dados imprecisos pode distorcer significativamente as respostas de LLMs.

Os pesquisadores também criaram um algoritmo para identificar dados contaminados e usaram referências cruzadas para validar as informações. No entanto, eles alertaram que não há uma solução prática para detectar e remover informações falsas de grandes conjuntos de dados públicos.

Esse estudo destaca os desafios de garantir a precisão e confiabilidade das respostas geradas por IA, especialmente em contextos sensíveis, como a área médica.

IA medicina
Descobertas do estudo levantam cautela sobre participação da IA na área médica – Imagem: LALAKA/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.

Ícone tagsTags: