Como já foi reportado diversas vezes, o ChatGPT pode errar. Na verdade, o chatbot da OpenAI erra com frequência, mas a empresa pouco está fazendo para deixar claro as limitações de seu software de Inteligência Artificial (IA). O único aviso dado pela companhia é que o programa “ocasionalmente pode gerar informações incorretas”.

Leia mais:

publicidade

Informações incorretas e mentiras

  • Nesta semana, um advogado usou informações fornecidas pelo ChatGPT sobre decisões judiciais em processo jurídico;
  • Ele até chegou a questionar o ChatGPT se os dados eram verdadeiros e o chatbot confirmou, inclusive citando a fonte;
  • No entanto, as informações eram inventadas e o advogado foi pego na mentira pelo tribunal, tendo que responder pelo uso indevido (e o Olhar Digital já falou sobre esse caso aqui);
  • O profissional justificou que “não sabia da possibilidade de que o conteúdo [do ChatGPT] pudesse ser falso”;
  • É claro que, nesse caso, um dos últimos e mais notáveis registrados nesta semana, a culpa é do advogado, mas a OpenAI pouco tem feito para avisar os usuários das limitações do sistema e da possibilidade de erro;
  • Outros casos mostram que o ChatGPT também inventa notícias, trabalhos acadêmicos e livros como fonte de informação.

Advogado chegou a questionar se o caso era verídico e o ChatGPT confirmou (Imagem: SDNY)

Papel da OpenAI

A OpenAI parece não ter assimilado a grandiosidade de seu chatbot e o uso que tem sido feito dele por parte dos usuários. Muitos recorrem à tecnologia por motivos de saúde, pesquisas acadêmicas ou, como foi o caso do advogado, materiais jurídicos.

publicidade

Em maio, outro caso, de um professor do Texas que usou o ChatGPT para conferir se os alunos usaram a tecnologia para escrever redações, quase reprovou todos os estudantes. Isso porque o chatbot afirmou que ele tinha sido usado indevidamente, mas ele sequer tem capacidade para fazer esse tipo de verificação e apenas inventou uma resposta, que quase rendeu a reprovação de uma turma inteira.

Ainda assim, a companhia não tem esclarecido que o software mente e inventa informações ativamente, e não pode ser considerado 100% eficaz nem nas consultas.

publicidade

Felizmente, o erro do professor do Texas foi apontado e a situação, esclarecida (Imagem: Diego Thomazini/Shutterstock)

Mecanismos de busca

Isso porque o ChatGPT não é um mecanismo de busca. Usuários usam-no como o Google justamente porque a OpenAI tem falhado em explicar que, na verdade, o chatbot é como um assistente virtual. Ele dirá qualquer informação de forma confiante, mesmo uma fabricada.

publicidade

Evoluções

  • Apesar desses problemas, isso não quer dizer que o ChatGPT é ruim;
  • Mesmo com as omissões da OpenAI em esclarecer as limitações, o chatbot já tem respondido a algumas perguntas negando pedidos que fogem da sua alçada;
  • Uma de suas respostas padrão, inclusive, admite que, “como um modelo de lingugem de IA…”, ele não tem conhecimento para responder certas questões.

Com informações de The Verge