Advogados envolvidos em uma ação contra a companhia aérea Avianca consultaram o ChatGPT para incrementar o processo de acusação e o resulto não foi o esperado: o chatbot passou informações falsas e a equipe foi pega na mentira. A situação nunca aconteceu antes e os advogados terão que se justificar pelo uso indevido.

O Olhar Digital já explicou caso aqui.

publicidade

Leia mais:

O que aconteceu

  • Um passageiro, Robert Mata, processou a Avianca depois de se machucar quando um carrinho de metal atingiu seu joelho durante um voo para o Aeroporto Internacional Kennedy, em Nova York.
  • A Avianca pediu que o juiz arquivasse o caso, mas, em defesa do cliente, o advogado Steven A. Schwartz apresentou outros casos similares em que as companhias tinham cedido.
  • O profissional, porém, usou o ChatGPT para pesquisar os casos. Como medida para garantir que o chatbot não estivesse mentindo, o advogado chegou a perguntar a veracidade das informações passadas.
  • O ChatGPT, então, se desculpou pela confusão anterior, em que foi questionado sobre a fonte da informação, e reafirmou que os casos eram reais e poderiam ser encontrados nos bancos de dados jurídicos Westlaw e LexisNexis.
  • Schwartz ficou satisfeito com a resposta e usou os casos em sua defesa.
  • Porém, o juiz responsável pelo caso, Kevin Castel, do Distrito dos Estados Unidos, confirmou que “seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e referências internas fraudulentas”.
O advogado chegou a questionar se o caso era verídico e o ChatGPT confirmou (Imagem: SDNY)

E agora?

Em um novo despacho, Castel afirmou que a circunstância é “sem precedentes” e que a defesa foi repleta de “decisões judiciais falsas, com citações falsas e citações internas falsas”.

publicidade

Ele agendou uma audiência para discutir a situação do uso indevido da IA para 8 de junho.

ChatGPT e mentiras

Não é exatamente novidade que o ChatGPT esteja envolvido em casos de mentiras e informações falsas. O chatbot já foi pego repassando (e confirmando) informações errôneas antes.

publicidade

O Bing, ferramenta de IA da Microsoft, é outro que está associado a mentiras e manipulação.

O chatbot de IA da Google, chamado Bard, é outro que inventou fatos, dessa vez sobre o telescópio espacial James Webb em sua primeira demonstração.

publicidade

Com informações de The Verge e The New York Times

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!