No final de maio, um advogado estadunidense utilizou o ChatGPT para consultas em um caso judicial contra a companhia aérea Avianca. No entanto, o chatbot de IA inventou fontes falsas e o profissional confessou após ser descoberto. Agora, ele foi punido pelo uso irregular.

Leia mais:

Relembre o caso

  • O advogado Steven A. Schwartz, responsável por um caso contra a Avianca, usou o ChatGPT para consultar outros casos semelhantes ao dele — e o chatbot respondeu.
  • O profissional, então, perguntou se as informações eram falsas e pediu as fontes de onde os processos anteriores poderiam ser encontrados. Novamente, o ChatGPT respondeu.
  • Confiando na IA, ele apresentou as informações no tribunal e foi desmascarado, tendo que confessar que usou o chatbot como fonte de pesquisa.
O advogado chegou a questionar se o caso era verídico e o ChatGPT confirmou (Imagem: SDNY)

IA para pesquisas

O professor Juliano Maranhão, do Departamento de Filosofia e Teoria Geral do Direito da Faculdade de Direito da USP, faz parte da comissão da faculdade para definir critérios para o uso da IA.

Segundo ele, é importante lembrar que os chatbots não são ferramentas de pesquisa, como o Google — eles apenas simulam conversas humanas.

publicidade

Maranhão ainda destaca que a questão é a transparência das pessoas em terem usado ou não IA como fonte, uma vez que há um excesso de confiança nela, mesmo que frequentemente erre ou invente informações.

Punição pelo uso do ChatGPT

O advogado americano não foi punido pelo erro na informação, mas sim pela falta de transparência em relação ao uso da ferramenta, que foi considerada como negligência na profissão.

ChatGPT
Esse é só mais um caso em que o ChatGPT inventou informações falsas (Imagem: Diego Thomazini / Shutterstock.com)

E no Brasil?

Segundo Maranhão, no Brasil, a punição do advogado poderia se enquadrar no crime de falsidade ideológica, em que o profissional traz informações falsas para um órgão público.

Na comissão em que participa, o professor mencionou que a preocupação é acerca da confiança entre a tecnologia e os humanos, como quando professores temem que alunos tenham usado o ChatGPT para realizar trabalhos.

Assim, uma das primeiras medidas tomadas pela USP é realizar um levantamento para entender qual o uso do chatbot na universidade e, a partir disso, definir regras.

Não é o caso de proibir. Mas, se for utilizado, destacar que foi utilizado, como foi utilizado, porque isso traz, de novo, confiança na ferramenta que pode ser usada de forma positiva e não de forma maliciosa.

Juliano Maranhão

Com informações de Jornal da USP

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!