ChatGPT erra e OpenAI não está deixando isso claro

Diversos casos em que a tecnologia fabrica notícias e inventa fontes têm sido reportados; dona não esclarece que o chat não é 100% confiável
Por Vitoria Lopes Gomez, editado por Rodrigo Mozelli 31/05/2023 18h23
ChatGPT-1
Imagem: Ascannio/ Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Como já foi reportado diversas vezes, o ChatGPT pode errar. Na verdade, o chatbot da OpenAI erra com frequência, mas a empresa pouco está fazendo para deixar claro as limitações de seu software de Inteligência Artificial (IA). O único aviso dado pela companhia é que o programa “ocasionalmente pode gerar informações incorretas”.

Leia mais:

Informações incorretas e mentiras

  • Nesta semana, um advogado usou informações fornecidas pelo ChatGPT sobre decisões judiciais em processo jurídico;
  • Ele até chegou a questionar o ChatGPT se os dados eram verdadeiros e o chatbot confirmou, inclusive citando a fonte;
  • No entanto, as informações eram inventadas e o advogado foi pego na mentira pelo tribunal, tendo que responder pelo uso indevido (e o Olhar Digital já falou sobre esse caso aqui);
  • O profissional justificou que “não sabia da possibilidade de que o conteúdo [do ChatGPT] pudesse ser falso”;
  • É claro que, nesse caso, um dos últimos e mais notáveis registrados nesta semana, a culpa é do advogado, mas a OpenAI pouco tem feito para avisar os usuários das limitações do sistema e da possibilidade de erro;
  • Outros casos mostram que o ChatGPT também inventa notícias, trabalhos acadêmicos e livros como fonte de informação.

Advogado chegou a questionar se o caso era verídico e o ChatGPT confirmou (Imagem: SDNY)

Papel da OpenAI

A OpenAI parece não ter assimilado a grandiosidade de seu chatbot e o uso que tem sido feito dele por parte dos usuários. Muitos recorrem à tecnologia por motivos de saúde, pesquisas acadêmicas ou, como foi o caso do advogado, materiais jurídicos.

Em maio, outro caso, de um professor do Texas que usou o ChatGPT para conferir se os alunos usaram a tecnologia para escrever redações, quase reprovou todos os estudantes. Isso porque o chatbot afirmou que ele tinha sido usado indevidamente, mas ele sequer tem capacidade para fazer esse tipo de verificação e apenas inventou uma resposta, que quase rendeu a reprovação de uma turma inteira.

Ainda assim, a companhia não tem esclarecido que o software mente e inventa informações ativamente, e não pode ser considerado 100% eficaz nem nas consultas.

Felizmente, o erro do professor do Texas foi apontado e a situação, esclarecida (Imagem: Diego Thomazini/Shutterstock)

Mecanismos de busca

Isso porque o ChatGPT não é um mecanismo de busca. Usuários usam-no como o Google justamente porque a OpenAI tem falhado em explicar que, na verdade, o chatbot é como um assistente virtual. Ele dirá qualquer informação de forma confiante, mesmo uma fabricada.

Evoluções

  • Apesar desses problemas, isso não quer dizer que o ChatGPT é ruim;
  • Mesmo com as omissões da OpenAI em esclarecer as limitações, o chatbot já tem respondido a algumas perguntas negando pedidos que fogem da sua alçada;
  • Uma de suas respostas padrão, inclusive, admite que, “como um modelo de lingugem de IA…”, ele não tem conhecimento para responder certas questões.

Com informações de The Verge

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.

Ícone tagsTags: