Advogados envolvidos em uma ação contra a companhia aérea Avianca consultaram o ChatGPT para incrementar o processo de acusação e o resulto não foi o esperado: o chatbot passou informações falsas e a equipe foi pega na mentira. A situação nunca aconteceu antes e os advogados terão que se justificar pelo uso indevido.
O Olhar Digital já explicou caso aqui.
Leia mais:
- ChatGPT-4 Browsing: o que é e como funciona o chatbot que acessa a web
- Como o ChatGPT pode ser utilizado na área de programação?
- Existem comandos secretos para o ChatGPT melhorar sua vida
O que aconteceu
- Um passageiro, Robert Mata, processou a Avianca depois de se machucar quando um carrinho de metal atingiu seu joelho durante um voo para o Aeroporto Internacional Kennedy, em Nova York.
- A Avianca pediu que o juiz arquivasse o caso, mas, em defesa do cliente, o advogado Steven A. Schwartz apresentou outros casos similares em que as companhias tinham cedido.
- O profissional, porém, usou o ChatGPT para pesquisar os casos. Como medida para garantir que o chatbot não estivesse mentindo, o advogado chegou a perguntar a veracidade das informações passadas.
- O ChatGPT, então, se desculpou pela confusão anterior, em que foi questionado sobre a fonte da informação, e reafirmou que os casos eram reais e poderiam ser encontrados nos bancos de dados jurídicos Westlaw e LexisNexis.
- Schwartz ficou satisfeito com a resposta e usou os casos em sua defesa.
- Porém, o juiz responsável pelo caso, Kevin Castel, do Distrito dos Estados Unidos, confirmou que “seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e referências internas fraudulentas”.
E agora?
Em um novo despacho, Castel afirmou que a circunstância é “sem precedentes” e que a defesa foi repleta de “decisões judiciais falsas, com citações falsas e citações internas falsas”.
Ele agendou uma audiência para discutir a situação do uso indevido da IA para 8 de junho.
ChatGPT e mentiras
Não é exatamente novidade que o ChatGPT esteja envolvido em casos de mentiras e informações falsas. O chatbot já foi pego repassando (e confirmando) informações errôneas antes.
O Bing, ferramenta de IA da Microsoft, é outro que está associado a mentiras e manipulação.
O chatbot de IA da Google, chamado Bard, é outro que inventou fatos, dessa vez sobre o telescópio espacial James Webb em sua primeira demonstração.
Com informações de The Verge e The New York Times
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!