Como já foi reportado diversas vezes, o ChatGPT pode errar. Na verdade, o chatbot da OpenAI erra com frequência, mas a empresa pouco está fazendo para deixar claro as limitações de seu software de Inteligência Artificial (IA). O único aviso dado pela companhia é que o programa “ocasionalmente pode gerar informações incorretas”.
Leia mais:
- ChatGPT-4 Browsing: o que é e como funciona o chatbot que acessa a web
- Como o ChatGPT pode ser utilizado na área de programação?
- ChatGPT ganha acesso à internet e responde perguntas atuais
Informações incorretas e mentiras
- Nesta semana, um advogado usou informações fornecidas pelo ChatGPT sobre decisões judiciais em processo jurídico;
- Ele até chegou a questionar o ChatGPT se os dados eram verdadeiros e o chatbot confirmou, inclusive citando a fonte;
- No entanto, as informações eram inventadas e o advogado foi pego na mentira pelo tribunal, tendo que responder pelo uso indevido (e o Olhar Digital já falou sobre esse caso aqui);
- O profissional justificou que “não sabia da possibilidade de que o conteúdo [do ChatGPT] pudesse ser falso”;
- É claro que, nesse caso, um dos últimos e mais notáveis registrados nesta semana, a culpa é do advogado, mas a OpenAI pouco tem feito para avisar os usuários das limitações do sistema e da possibilidade de erro;
- Outros casos mostram que o ChatGPT também inventa notícias, trabalhos acadêmicos e livros como fonte de informação.
Papel da OpenAI
A OpenAI parece não ter assimilado a grandiosidade de seu chatbot e o uso que tem sido feito dele por parte dos usuários. Muitos recorrem à tecnologia por motivos de saúde, pesquisas acadêmicas ou, como foi o caso do advogado, materiais jurídicos.
Em maio, outro caso, de um professor do Texas que usou o ChatGPT para conferir se os alunos usaram a tecnologia para escrever redações, quase reprovou todos os estudantes. Isso porque o chatbot afirmou que ele tinha sido usado indevidamente, mas ele sequer tem capacidade para fazer esse tipo de verificação e apenas inventou uma resposta, que quase rendeu a reprovação de uma turma inteira.
Ainda assim, a companhia não tem esclarecido que o software mente e inventa informações ativamente, e não pode ser considerado 100% eficaz nem nas consultas.
Mecanismos de busca
Isso porque o ChatGPT não é um mecanismo de busca. Usuários usam-no como o Google justamente porque a OpenAI tem falhado em explicar que, na verdade, o chatbot é como um assistente virtual. Ele dirá qualquer informação de forma confiante, mesmo uma fabricada.
Evoluções
- Apesar desses problemas, isso não quer dizer que o ChatGPT é ruim;
- Mesmo com as omissões da OpenAI em esclarecer as limitações, o chatbot já tem respondido a algumas perguntas negando pedidos que fogem da sua alçada;
- Uma de suas respostas padrão, inclusive, admite que, “como um modelo de lingugem de IA…”, ele não tem conhecimento para responder certas questões.
Com informações de The Verge