Siga o Olhar Digital no Google Discover
Advogados envolvidos em uma ação contra a companhia aérea Avianca consultaram o ChatGPT para incrementar o processo de acusação e o resulto não foi o esperado: o chatbot passou informações falsas e a equipe foi pega na mentira. A situação nunca aconteceu antes e os advogados terão que se justificar pelo uso indevido.
Ofertas
Por: R$ 4.519,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
O Olhar Digital já explicou caso aqui.
Leia mais:
- ChatGPT-4 Browsing: o que é e como funciona o chatbot que acessa a web
- Como o ChatGPT pode ser utilizado na área de programação?
- Existem comandos secretos para o ChatGPT melhorar sua vida
O que aconteceu
- Um passageiro, Robert Mata, processou a Avianca depois de se machucar quando um carrinho de metal atingiu seu joelho durante um voo para o Aeroporto Internacional Kennedy, em Nova York.
- A Avianca pediu que o juiz arquivasse o caso, mas, em defesa do cliente, o advogado Steven A. Schwartz apresentou outros casos similares em que as companhias tinham cedido.
- O profissional, porém, usou o ChatGPT para pesquisar os casos. Como medida para garantir que o chatbot não estivesse mentindo, o advogado chegou a perguntar a veracidade das informações passadas.
- O ChatGPT, então, se desculpou pela confusão anterior, em que foi questionado sobre a fonte da informação, e reafirmou que os casos eram reais e poderiam ser encontrados nos bancos de dados jurídicos Westlaw e LexisNexis.
- Schwartz ficou satisfeito com a resposta e usou os casos em sua defesa.
- Porém, o juiz responsável pelo caso, Kevin Castel, do Distrito dos Estados Unidos, confirmou que “seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e referências internas fraudulentas”.

E agora?
Em um novo despacho, Castel afirmou que a circunstância é “sem precedentes” e que a defesa foi repleta de “decisões judiciais falsas, com citações falsas e citações internas falsas”.
Ele agendou uma audiência para discutir a situação do uso indevido da IA para 8 de junho.
ChatGPT e mentiras
Não é exatamente novidade que o ChatGPT esteja envolvido em casos de mentiras e informações falsas. O chatbot já foi pego repassando (e confirmando) informações errôneas antes.
O Bing, ferramenta de IA da Microsoft, é outro que está associado a mentiras e manipulação.
O chatbot de IA da Google, chamado Bard, é outro que inventou fatos, dessa vez sobre o telescópio espacial James Webb em sua primeira demonstração.
Com informações de The Verge e The New York Times
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!