Plataformas que geram imagens por meio de inteligência artificial (IA) podem ser ferramentas para desinformação eleitoral e política. Isso vale inclusive para as que têm políticas contra criação de conteúdo enganoso. É o que dizem pesquisadores do Center for Countering Digital Hate (CCDH), organização sem fins lucrativos que monitora discurso de ódio online, num relatório publicado nesta quarta-feira (06).

Para quem tem pressa:

  • Pesquisadores do Center for Countering Digital Hate (CCDH) alertam sobre o potencial das plataformas de IA generativa de serem ferramentas para desinformação eleitoral e política. 
  • Eles conseguiram gerar, por exemplo, imagens do presidente dos EUA, Joe Biden, hospitalizado e trabalhadores eleitorais destruindo urnas por meio de plataformas com IA generativa. Segundo os pesquisadores, essas imagens podem servir como “evidência fotográfica” para disseminar desinformação eleitoral;
  • O CCDH testou várias plataformas, incluindo ChatGPT Plus da OpenAI e Image Creator da Microsoft. E tiveram taxa de sucesso de 41% na produção de imagens enganosas, especialmente em prompts que solicitavam representações de fraude eleitoral;
  • Ao todo, 20 empresas, incluindo OpenAI e Microsoft, concordaram em trabalhar juntas para combater a desinformação nas eleições de 2024 ao redor do mundo. A plataforma Midjourney não assinou o compromisso inicial e teve a pior performance nos testes, gerando conteúdo falso em 65% dos casos.

Esses pesquisadores conseguiram usar ferramentas de IA generativa para criar imagens do presidente dos EUA, Joe Biden, deitado numa cama de hospital e de trabalhadores eleitorais destruindo urnas de votação, por exemplo.”O potencial para tais imagens geradas por IA servirem como ‘evidência fotográfica’ poderia exacerbar a disseminação de afirmações falsas, representando um desafio significativo para preservar a integridade das eleições”, escreveram os pesquisadores do CCDH no relatório.

publicidade

Leia mais:

Os pesquisadores da organização testaram: ChatGPT Plus (OpenAI), Image Creator (Microsoft), Midjourney e DreamStudio (Stability AI). Todos são plataformas nas quais o usuário consegue gerar imagens a partir de comandos (prompts) de texto. As informações são da agência de notícias Reuters.

publicidade

IA generativa e seu potencial para desinformação

Ilustração de robô humanoide interagindo com diversas formas de conteúdo em holograma para representar conceito de inteligência artificial
(Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

Ao todo, 20 empresas de tecnologia – entre elas: OpenAI, Microsoft e Stability AI – comprometeram-se a trabalhar juntas para evitar interferências de conteúdo de IA enganoso nas eleições de 2024 ao redor do mundo. Mas Midjourney não estava entre os signatários iniciais.

O CCDH constatou que as ferramentas de IA produziram imagens enganosas em 41% dos testes. Ainda segundo o relatório, as plataformas foram mais suscetíveis a prompts que pediam representações de fraude eleitoral. ChatGPT Plus e Image Creator conseguiram bloquear todos os prompts de imagens de candidatos.

publicidade

O Midjourney teve a pior performance, gerando imagens enganosas em 65% dos testes. O CCDH também observou que algumas imagens geradas pelo Midjourney estão disponíveis publicamente – e já existem evidências de seu uso para criar conteúdo político falso.

midjourney
(Imagem: Reprodução/Midjourney)

O fundador do Midjourney, David Holz, afirmou que as atualizações relacionadas às eleições dos Estados Unidos serão implementadas em breve. Holz também destacou que imagens criadas anteriormente não refletem as práticas atuais de moderação. A Stability AI atualizou suas políticas para proibir a fraude e promoção de desinformação.

publicidade

A OpenAI afirmou trabalhar para evitar o uso abusivo de suas ferramentas. Já a Microsoft, espécie de parceira da desenvolvedora do ChatGPT, não respondeu ao pedido de comentário da agência de notícias.