Com o rápido avanço da inteligência artificial (IA) para geração de áudios, a clonagem de voz se tornou algo comum na indústria do entretenimento para dublar e criar canções com atores e artistas falecidos. Em lojas de aplicativos e anúncios de redes sociais, é possível encontrar dezenas de softwares que os usuários podem usar facilmente para imitar vozes.

Mas, como qualquer possibilidade criada a partir da IA, seu uso em mãos erradas pode resultar em ações de desinformação preocupantes, como enganar eleitores, criar conflitos políticos e dar — ainda mais — espaço para teorias da conspiração.

publicidade

Leia mais:

publicidade
Ilustração de deepfake de voz
Imagem: ArtemisDiana/Shutterstock

Nos últimos meses, alguns países têm visto o efeito de deepfakes para clonar a voz de líderes políticos:

  • No mês passado, dois dias antes da eleição nacional da Eslováquia, um clipe de áudio de Michal Šimečka, líder do Partido Progressista do país, descrevia esquema para fraudar a votação a partir do suborno de membros da população cigana;
  • Na semana seguinte, foi postado no X (antigo Twitter) vídeo do líder de Keir Starmer, líder do Partido Trabalhista do Reino Unido e candidato a primeiro-ministro, xingando seus funcionários;
  • Como observa o The Washington Post, ambos os clipes foram desmentidos por verificadores de fatos, sendo considerados como prováveis falsos gerados por softwares de IA;
  • No entanto, ainda há diversas publicações no Facebook e X que afirmam que os clipes são verdadeiros — o que engana ainda mais usuários;
  • No caso do clipe inicial de Šimečka, o Facebook não removeu a publicação, mas colocou um selo advertindo que o conteúdo foi desmentido;
  • O vídeo de Keir Starmer não foi removido e não recebeu advertência, pois a política do Facebook foca apenas em conteúdos cujo vídeo foi manipulado;
  • Mais eleições acontecerão na Europa nos próximos meses, como Polônia, Holanda e Lituânia, o que motivou Thierry Breton, comissário da União Europeia, a enviar carta para Mark Zuckerberg, CEO da Meta, pressionando para que a rede social tome medidas para evitar a proliferação de deepfakes.

Deepfakes preocupam EUA para as eleições de 2024

  • Nos Estados Unidos, o ex-presidente Barack Obama apareceu em vídeo publicado no TikTok defendendo teoria da conspiração sobre a morte repentina de seu ex-chefe de cozinha, conforme divulgou o The New York Times;
  • O vídeo de Obama foi publicado por uma das 17 contas do TikTok que promoviam falsas informações por áudio no relatório de setembro da NewsGuard, empresa que monitora desinformação online;
  • Para Jack Brewster, pesquisador da NewsGuard que conduziu o relatório, os deepfakes de voz tem diferencial que facilita enganar os usuários: eles não mostram “falhas” tão facilmente igual às imagens ou vídeos gerados por IA;

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!