Um grupo de gigantes da inteligência artificial (IA) está prestes a assinar um “acordo” comprometendo-se a desenvolver tecnologia para detectar, identificar e controlar imagens, vídeos e gravações de áudio geradas por IA que buscam enganar eleitores antes das eleições cruciais em vários países neste ano.

O que você precisa saber:

  • O acordo, liderado por empresas como Google, Microsoft e Meta, juntamente com OpenAI, Adobe e TikTok, foi obtido pelo The Washington Post.
  • No entanto, a versão final do documento não inclui uma proibição direta do conteúdo eleitoral enganoso gerado por IA, deixando uma lacuna significativa.
  • Em vez disso, o acordo funciona mais como um manifesto reconhecendo os riscos apresentados pelo conteúdo gerado por IA para a integridade das eleições.
  • Propõe-se a tomar medidas para mitigar esses riscos, como rotular conteúdo suspeito de IA e educar o público sobre os perigos associados à disseminação de deepfakes.

Leia mais:

A geração e distribuição deliberadas e não divulgadas de conteúdo eleitoral enganoso baseado em IA podem manipular o público de formas que ameaçam a integridade dos processos eleitorais.

Trecho do documento via WP

O problema das deepfakes de IA no contexto eleitoral

Embora deepfakes tenham existido há alguns anos, sua qualidade tem melhorado rapidamente, tornando-se cada vez mais difícil distinguir entre conteúdo falso e real. A acessibilidade das ferramentas necessárias para criá-los também aumentou, ampliando o potencial para sua produção em grande escala.

Exemplos recentes de deepfakes em campanhas eleitorais incluem um anúncio em apoio ao ex-candidato presidencial Ron DeSantis, que usou IA para imitar a voz do ex-presidente Donald Trump, e o uso de IA pelo candidato presidencial paquistanês Imran Khan para criar discursos enquanto estava na prisão. Além disso, recentemente uma ligação automática, alegando ser do presidente Biden, incentivou as pessoas a não votarem nas primárias de New Hampshire, utilizando uma versão gerada por IA da voz de Biden.

publicidade

As empresas de tecnologia têm enfrentado pressões crescentes de reguladores, pesquisadores de IA e ativistas políticos para conter a disseminação desse tipo de conteúdo falso. O acordo atual se assemelha a um compromisso voluntário anterior, assinado após uma reunião na Casa Branca, no qual as empresas se comprometeram a tentar identificar e rotular conteúdo falso de IA em seus sites.

Apesar dos esforços das empresas de tecnologia em criar políticas para lidar com o conteúdo político gerado por IA — como a exigência do TikTok de não permitir conteúdo falso de figuras públicas em endossos políticos, e a exigência do Meta de que os anunciantes políticos declarem o uso de IA em anúncios em suas plataformas —, ainda há muito a ser feito para estabelecer um sistema amplo e eficaz de identificação e rotulagem de deepfakes em todas as redes sociais.