O professor de direito Jonathan Turley foi pego de surpresa na última semana. Como parte de uma pesquisa, um colega dele pediu ao ChatGPT que elaborasse uma lista de juristas que assediaram sexualmente alguém. E o nome de Turley estava lá.

Leia mais:

publicidade

Segundo a IA da OpenAI, o advogado teria feito comentários inapropriados de cunho sexual e teria tentado tocar uma estudante durante uma viagem de classe ao Alasca. A ferramenta, inclusive, citou uma reportagem de março de 2018 do Washington Post como sua fonte. O curioso é que essa reportagem não existe (algo confirmado pelo próprio jornal).

Além disso, jamais houve uma viagem ao Alasca e o advogado e professor afirmou que nunca foi acusado por assédio.

publicidade

“Isso foi meio arrepiante”, afirmou Turley ao TWP. “Uma alegação como esta é incrivelmente danosa”.

A fake news do ChatGPT

Eugene Volokh, professor de direito da Universidade da Califórnia em Los Angeles, conduziu o estudo que citou Turley. Ele disse que a crescente popularidade do software de chatbots é uma razão crucial pela qual os estudiosos devem buscar quem é o responsável quando as IAs geram informações falsas.

publicidade

Na semana passada, Volokh perguntou ao ChatGPT se o assédio sexual por professores tem sido um problema nas faculdades de direito americanas. “Inclua, pelo menos, cinco exemplos, juntamente com citações de artigos de jornais relevantes”, solicitou o pesquisador.

Cinco respostas retornaram, todas com detalhes realistas e citações de fontes. Mas, quando Volokh os examinou, três pareciam ser falsos. Eles citaram artigos inexistentes de jornais como The Washington Post, Miami Herald e Los Angeles Times.

publicidade

Sobre Jonathan Turley, o bot disse o seguinte:

“Jonathan Turley foi acusado de assédio sexual por uma ex-aluna que alegou ter feito comentários inapropriados durante uma viagem escolar. Citação: “A denúncia alega que Turley fez ‘comentários sexualmente sugestivos’ e ‘tentou tocá-la de maneira sexual’ durante uma viagem patrocinada pela faculdade de direito ao Alasca.” (Washington Post, 21 de março de 2018).

O jornal não encontrou o artigo de março de 2018 mencionado pelo ChatGPT. Um artigo daquele mês fazia referência a Turley – uma história de 25 de março em que ele falava sobre seu ex-estudante de direito Michael Avenatti, um advogado que representou a atriz de filmes adultos Stormy Daniels em ações judiciais contra o ex-presidente Donald Trump. Turley também não trabalha na Universidade de Georgetown.

Chatbots replicam fake news

Na terça e quarta-feira, o Washington Post recriou a consulta exata de Volokh no ChatGPT e no Bing. A versão gratuita do ChatGPT se recusou a responder, dizendo que isso “violaria a política de conteúdo da AI, que proíbe a disseminação de conteúdo ofensivo ou prejudicial”. 

Mas o Bing, da Microsoft, que é alimentado pelo GPT-4, repetiu a falsa alegação sobre Turley — citando entre suas fontes um artigo de opinião do professor publicado pelo USA Today na segunda-feira. O texto descreveu sua experiência de ser falsamente acusado pelo ChatGPT.

Em outras palavras, a cobertura da mídia do erro inicial do ChatGPT sobre Turley parece ter levado o Bing a repetir o erro — mostrando como a desinformação pode se espalhar de uma IA para outra.

IA: aliada ou inimiga?

Essa experiência negativa de Jonathan Turley mostra as potenciais armadilhas da última onda de inteligências artificiais generativas. No mainstream, vemos mais frequentemente as virtudes dessas tecnologias:

  • Escrever códigos de computador.
  • Ajudar a organizar raciocínio.
  • Elaborar resumos.
  • Auxiliar com pesquisas.
  • Fazer atividades criativas, como poemas e diálogos.

À medida que softwares de IA não regulamentados, como ChatGPT, Bing e Bard, começam a ser incorporados na web, a chance de que desinformação seja propagada aumenta.

Como esses sistemas respondem com tanta confiança, é muito sedutor supor que eles podem fazer tudo, e é muito difícil dizer a diferença entre fatos e falsidades.

Kate Crawford, professora da University of Southern California em Annenberg e pesquisadora principal sênior na Pesquisa da Microsoft.

Em um comunicado, o porta-voz da OpenAI, Niko Felix, afirmou:

Quando os usuários se inscrevem no ChatGPT, nos esforçamos para ser o mais transparente possível, pois nem sempre gera respostas precisas. Melhorar a precisão factual é um foco significativo para nós e estamos progredindo.

Katy Asher, diretora sênior de comunicações da Microsoft, disse que a empresa está tomando medidas para garantir que os resultados de pesquisa sejam seguros e precisos.

Desenvolvemos um sistema de segurança que inclui filtragem de conteúdo, monitoramento operacional e detecção de abuso para fornecer uma experiência de pesquisa segura para nossos usuários (…) Os usuários também recebem um aviso explícito de que estão interagindo com um sistema de IA.

Os chatbots, atualmente, funcionam com base em conjuntos de conteúdos online, geralmente extraídos de fontes como Wikipedia e Reddit, para reunir respostas que parecem plausíveis para quase todas as perguntas. 

Eles são treinados para identificar padrões de palavras e ideias para permanecer no tópico enquanto geram frases, parágrafos e até ensaios inteiros que podem se assemelhar a materiais publicados online.

Contudo, só porque esses chatbots têm essa capacidade, não significa que as sentenças formuladas sejam sempre verdadeiras.

De quem é a culpa?

Ainda não está claro quem é o responsável quando a inteligência artificial gera ou espalha informações falsas.

O Congresso dos EUA aprovou um estatuto conhecido como Seção 230, que protege os serviços online da responsabilidade pelo conteúdo que eles hospedam. No entanto, especialistas dizem que não está claro se as empresas de tecnologia poderão usar esse escudo se forem processadas por respostas produzidas por seus próprios chatbots de IA.

Para entender mais sobre a legislação dos EUA, clique aqui. Para ver o que é discutido no Brasil, clique aqui.

Com informações de The Washington Post

Imagem destacada: Alana Jordan/Pixabay – montagem: Pedro Spadoni/Olhar Digital

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!