IA (inteligência artificial) já foi algo descrito de forma abstrata. Porém, quando pessoas começaram a se envolver com programas de IA, como ChatGPT, da OpenAI, tudo mudou. E essa tecnologia já desempenha papel importante na corrida presidencial dos EUA. Isso porque linha entre real e falso fica cada vez mais difícil de distinguir, conforme tecnologia avança.

À medida que se democratiza IA, a própria democracia sofre novas pressões. Provavelmente haverá muitas maneiras de implantar essa tecnologia. Mas ela pode distorcer a realidade. Se áudio, imagens e vídeos gerados por IA de candidatos viralizarem, ela pode se tornar uma grande ameaça para a eleição presidencial de 2024.

publicidade

Leia mais:

Vimos mudanças bastante dramáticas no cenário quando se trata de ferramentas generativas – especialmente em 2022. Acho que a escala de conteúdo que estamos vendo sendo produzida está diretamente relacionada a essa abertura dramática de acessibilidade.

Henry Ajder, especialista em IA

Política e IA generativa

Imagem fake de Joe Biden sentado com olhar pensativo
Essa imagem de Joe Biden, que aparece no final do vídeo criado para Partido Republicano dos EUA, é fake (Imagem: Reprodução/YouTube)

Não é uma questão de saber se conteúdo gerado por IA vai começar a desempenhar um papel na política, porque isso já está acontecendo.

publicidade

Imagens e vídeos gerados por IA com o presidente dos EUA, Joe Biden, e do ex-presidente Donald Trump começaram a se espalhar pela Internet. Republicanos recentemente usaram IA para gerar anúncio de ataque contra Biden.

A questão é: o que acontecerá quando alguém puder abrir seu laptop e, com o mínimo de esforço, criar rapidamente um deepfake convincente de um político?

publicidade

Próxima fronteira para IA

Ilustração de tecnologia de reconhecimento facial em cima de rosto de mulher
Para especialista em IA, criação de vídeo é a próxima fronteira para IA generativa (Imagem: Getty Images)

Existem várias maneiras de gerar imagens com IA a partir de texto – por exemplo, Dall-E, Midjourney e Stable Diffusion. É fácil gerar “clone” da voz de alguém com um programa de IA, como ElevenLabs. Vídeos deepfake convincentes ainda são difíceis de produzir, mas Ajder diz que pode não ser o caso dentro de um ano ou mais.

Criar um deepfake realmente de alta qualidade ainda requer um bom grau de experiência, bem como experiência em pós-produção para retocar o que IA gera. O vídeo é realmente a próxima fronteira na IA generativa.

Henry Ajder, especialista em IA

Alguns deepfakes de figuras políticas surgiram nos últimos anos. Um deles, divulgado em 2022, mostrava o presidente da Ucrânia, Volodymyr Zelensky, mandando suas tropas se renderem. Conforme a tecnologia avança – o que pode não demorar muito, considerando ritmo de desenvolvimento de outras formas de IA generativa – mais vídeos desse tipo podem aparecer. E a tendência é eles se tornarem mais convincentes e fáceis de produzir.

publicidade

Não acho que exista um site onde você possa dizer: ‘Crie para mim um vídeo de Joe Biden dizendo X’. Isso não existe, mas existirá. É só uma questão de tempo. As pessoas já estão trabalhando na conversão de texto em vídeo.

Hany Farid, professor da Escola de Informação da Universidade da Califórnia

Isso inclui empresas como Google e Meta. Depois que uma empresa lança versão de alta qualidade de uma ferramenta de IA geradora de texto para vídeo, outras podem lançar suas próprias versões logo em seguida. É o que tem rolado após o lançamento do ChatGPT, por exemplo. Farid diz que ninguém “ficar para trás”, então empresas tendem a lançar o que têm o mais rápido possível.

Vislumbre do futuro

Donald Trump com bandeira dos EUA ao fundo
É fácil imaginar figuras públicas – por exemplo, Donald Trump – compartilhando deepfakes de rivais nas redes sociais (Imagem: AFP)

Se um número significativo de deepfakes se espalhar durante a eleição, é fácil imaginar alguém como Donald Trump compartilhando esse tipo de conteúdo nas redes sociais e afirmando que é real. Um deepfake do presidente Biden dizendo algo comprometedor pode sair pouco antes da eleição. E muitas pessoas podem nunca descobrir que foi gerado por IA. Afinal, pesquisas mostram que notícias falsas se espalham mais do que reais.

Mesmo que deepfakes não se tornem onipresentes nesses 18 meses antes da eleição presidencial nos EUA, o simples fato de que esse tipo de conteúdo pode ser criado pode afetar a eleição. Saber que imagens, áudio e vídeo fraudulentos podem ser criados com relativa facilidade pode fazer com que pessoas desconfiem do material legítimo que encontram.

Em alguns aspectos, deepfakes e IA generativa nem precisam estar envolvidos na eleição para que ainda causem perturbações, porque agora o poço foi envenenado com a ideia de que qualquer coisa pode ser falsa. Isso fornece uma desculpa realmente útil. Se algo inconveniente de você aparecer, pode descartá-lo como falso.

Henry Ajder, especialista em IA

O que fazer, então?

Ilustração de tecnologia de reconhecimento facial em cima de rosto de mulher
Caminho possível seria desenvolver ferramenta para verificação de veracidade do conteúdo (Imagem: Adobe Stock)

Uma solução é algo chamado C2PA. Essa tecnologia assina criptograficamente qualquer conteúdo criado por um dispositivo, seja telefone ou câmera, e documenta quem capturou a imagem, onde e quando. A assinatura criptográfica é então mantida num livro-razão imutável centralizado. Isso permitiria que pessoas que produzem vídeos legítimos mostrassem que são, de fato, legítimos.

Se propôs, mais de uma vez, que ferramentas de IA podem ser desenvolvidas para detectar deepfakes. Mas Ajder não acredita nessa solução. Ele diz que a tecnologia não é confiável o suficiente e que não seria capaz de acompanhar a mudança constante das ferramentas de IA generativas.

Uma última possibilidade para resolver esse problema seria desenvolver uma espécie de verificador instantâneo de fatos para usuários de mídia social. Aviv Ovadya, pesquisador do Berkman Klein Center for Internet & Society, em Harvard, sugere possibilitar que usuários destaquem conteúdo num aplicativo e o enviem para um mecanismo de contextualização que informará sua veracidade.

É preciso que seja quase instantâneo – de forma que você olha para algo que vê online e pode obter contexto sobre essa coisa. O que é que você está olhando? Você pode ter referências cruzadas com fontes em que pode confiar.

Aviv Ovadya, pesquisador do Berkman Klein Center for Internet & Society, em Harvard

Ovadya acrescentou que esse recurso poderia estar disponível em aplicativos como WhatsApp e Twitter. Ou ser um aplicativo à parte. O problema, segundo ele, é que muitos fundadores com quem ele conversou simplesmente não veem muito potencial de se ganhar dinheiro no desenvolvimento de tal ferramenta.

Com informações da Wired

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!