Juiz veta IA em tribunal após ChatGPT mentir em processo

Depois de advogado ter usado informações falsas geradas pelo ChatGPT no tribunal, juízes querem estabelecer regras para o uso
Por Vitoria Lopes Gomez, editado por Bruno Capozzi 31/05/2023 17h28, atualizada em 31/05/2023 19h00
Martelo de juiz sobre teclado de notebook com ChatGPT aberto
(Imagem: Ascannio/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Parece tolo deixar que uma Inteligência Artificial (IA) realize o trabalho de um advogado sem checagem, mas recentemente um profissional o fez: ele apresentou argumentos gerados por ChatGPT que, no final, eram inventados. Em resposta, o juiz federal do Texas Brantley Starr determinou que os advogados no tribunal atestem que nenhuma parte do processo foi gerado por IA.

Leia mais:

O que aconteceu

  • Em um processo contra a companhia aérea Avianca, o advogado Steven A. Schwartz apresentou casos similares no argumento de defesa.
  • O profissional, porém, usou o ChatGPT para pesquisar os casos e o chatbot os inventou.
  • O advogado chegou a se certificar de que a ferramenta não estivesse mentindo e perguntou a veracidade das informações passadas.
  • O ChatGPT, então, se desculpou pela confusão anterior, em que foi questionado sobre a fonte da informação, e reafirmou que os casos eram reais e poderiam ser encontrados nos bancos de dados jurídicos Westlaw e LexisNexis.
  • Schwartz ficou satisfeito com a resposta e usou os casos em sua defesa.
  • Porém, o juiz responsável pelo caso, Kevin Castel, do Distrito dos Estados Unidos, confirmou que “seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e referências internas fraudulentas”.
  • Os advogados envolvidos no processo foram chamados para esclarecer o uso indevido.
O advogado chegou a questionar se o caso era verídico e o ChatGPT confirmou (Imagem: SDNY)

Exigências

Starr quer evitar que outras situações de mentiras inventadas pelo ChatGPT e IA generativa se repitam. Ele exigiu que os advogados nos tribunais afirmem que “nenhuma parte do processo foi redigida por inteligência artificial generativa” e, se foi, esta foi verificada “por um ser humano”.

O juiz chegou a citar o ChatGPT, o Harvey.IA e o Google Bard.

Na medida, os advogados terão que assinar um anexo confirmando que atenderam as exigências.

Uso da IA no tribunal

  • O memorando divulgado por Starr ainda afirma que “essas plataformas são incrivelmente poderosas e têm muitos usos na lei”, que vão de formulários de divórcios a perguntas antecipadas em sustentação oral.
  • Porém, o briefing não é um deles: as ferramentas estão sujeitas a inventar informações e apelar a crenças pessoais, já que a IA generativa é produto de uma programação desenvolvida por humanos sem um juramento jurídico.
  • O memorando ainda afirma que esses sistemas são “livres de qualquer senso de dever, honra ou justiça” e que “agem de acordo com o código do computador”.
  • Ao final, ressalta que qualquer uso necessário da IA em processos deve ser justificado.
  • A medida vale apenas para o tribunal do Texas, mas logo deve ser incorporada por outros para evitar o mesmo problema.

Com informações de Tech Crunch

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.