Os chatbots baseados em modelos de linguagem, como o ChatGPT da OpenAI, são treinados para prever a próxima palavra, mas não são treinados para reconhecer quando não sabem a resposta. Isso resulta em chatbots que tendem a inventar respostas em vez de admitir que não sabem.

  • Pesquisadores do MIT descobriram uma nova abordagem para melhorar as respostas dos chatbots.
  • A proposta envolve o uso de vários chatbots para gerar respostas múltiplas à mesma pergunta.
  • Esses chatbots debatem entre si para escolher a resposta correta.
  • A abordagem, chamada de “sociedade de mentes”, aumentou a precisão dos chatbots.
  • Os chatbots “generativos” enfrentam o desafio de inventar informações.
  • ChatGPT da OpenAI, Bing da Microsoft e Bard do Google são exemplos de chatbots generativos que já passaram (e ainda passam) por isso.
  • Esses chatbots têm capacidades impressionantes, mas ainda sofrem com o problema de inventar informações.
  • Esse problema, conhecido como “alucinações”, tem preocupado muitos especialistas em tecnologia, pesquisadores e céticos em inteligência artificial.

Leia mais:

publicidade

A questão das alucinações dos chatbots é mencionada em dezenas de artigos acadêmicos e até CEOs de grandes empresas de tecnologia, como Sundar Pichai, do Google, já abordaram o assunto. Com a crescente utilização de chatbots em áreas críticas, como medicina e direito, compreender as alucinações e encontrar maneiras de mitigá-las tornou-se ainda mais crucial.

A maioria dos pesquisadores concorda que o problema é inerente aos “modelos de linguagem grandes”, devido à forma como são projetados. Esses modelos preveem a resposta mais apropriada com base em uma enorme quantidade de dados da internet, mas não possuem um mecanismo para distinguir o que é factual do que não é.

publicidade

Como resolver a questão

  • Pesquisadores e empresas trabalhando na resolução do problema das alucinações:
    • Engajamento de pesquisadores e empresas no esforço de resolver o problema das alucinações.
  • Utilização de treinadores humanos para reescrever respostas de chatbots:
    • Algumas empresas estão empregando treinadores humanos para reescrever as respostas dos chatbots.
    • O objetivo é alimentar essas respostas reescritas de volta ao sistema, visando aprimorar a inteligência dos chatbots.
  • Uso de chatbots do Google e Microsoft em mecanismos de busca:
    • O Google e a Microsoft começaram a utilizar seus chatbots para fornecer respostas diretamente em seus mecanismos de busca.
    • No entanto, eles ainda conferem os resultados com pesquisas convencionais para garantir sua precisão.
  • Sugestões acadêmicas para diminuir a taxa de respostas falsas:
    • Acadêmicos ao redor do mundo têm proposto várias maneiras de reduzir a ocorrência de respostas falsas nos chatbots.
    • Uma das propostas do MIT é fazer com que vários chatbots debatam entre si como forma de melhorar a qualidade das respostas.

A urgência em melhorar o problema das alucinações é evidente. Já houve casos em que chatbots forneceram informações falsas, como acusações infundadas feitas pelo chatbot da Microsoft contra alguns usuários ou a geração de documentos legais inválidos por um advogado utilizando o ChatGPT da OpenAI.

Embora as alucinações possam ser vistas como uma característica que permite aos chatbots serem criativos e gerarem histórias inéditas, elas também revelam as limitações da tecnologia e questionam a inteligência destas ferramentas, já que eles não possuem uma compreensão interna do mundo ao seu redor.

publicidade

Enquanto as empresas líderes do setor estão adotando abordagens como comparação com resultados de pesquisas tradicionais para reduzir as alucinações e imprecisões, pesquisadores acreditam que será necessário desenvolver um método totalmente novo de aprendizado em inteligência artificial para resolver completamente o problema.

No final das contas, os chatbots ainda têm um longo caminho a percorrer antes de serem considerados verdadeiramente confiáveis em fornecer informações factuais e precisas.

publicidade

Com informações do The Washington Post.

Já assistiu aos nossos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!