A explosão da inteligência artificial (IA) tornou mais fácil do que nunca enganar pessoas na internet e pode dar novos rumos às eleições presidenciais dos EUA de 2024, no que será um teste sem precedentes acerca de como policiar conteúdos enganosos.
Um exemplo do que está por vir acontecceu em New Hampshire, no mês passado. Dias antes das primárias presidenciais do Estado, cerca de cinco mil a 25 mil ligações pediam aos eleitores que não se preocupassem em votar.
Leia mais:
- 5 IAs para criar vídeos a partir de texto
- VAR: o que é e como funciona um árbitro de vídeo no futebol?
- EUA: Pentágono faz reuniões com techs por uso militar da IA
“Seu voto faz diferença em novembro, não nesta terça”, dizia a voz. Parecia o presidente Joe Biden, mas era uma voz criada pela IA, de acordo com análise da empresa de segurança Pindrop. A mensagem também desencorajou eleitores independentes de participarem nas primárias republicanas.
Nas redes sociais, porém, a origem da ligação foi motivo de debate. No Threads, alguns usuários viram tentativa de suprimir a participação eleitoral. “Esta é a interferência eleitoral”, escreveu um. No Truth Social, rede social do ex-presidente Donald Trump, alguns usuários culparam os democratas pela ligação. “Provavelmente não é falso”, postou um.
- Segundo o The Wall Street Journal, quando a Pindrop analisou o áudio, encontraram sinais reveladores de que a ligação era falsa;
- A voz de Biden pronunciou os ruidosos sons fricativos que compõem as letras S e F, por exemplo, de forma bastante desumana e robotizada;
- Duas semanas depois, o gabinete do procurador-geral de New Hampshire disse que identificou uma empresa com sede no Texas, chamada Life Corp, como a fonte das ligações, e que emitiu ordem para que parassem com isso, citando lei contra a supressão de eleitores;
- Representantes da Life Corp não responderam aos e-mails to WSJ solicitando comentários.
IA vs. eleições
Graças aos recentes avanços na IA generativa, praticamente qualquer pessoa pode criar imagens, áudio e vídeos cada vez mais convincentes, mas falsos, bem como usuários fictícios de redes sociais e bots que parecem humanos.
Com um ano agitado para as eleições em todo o mundo em 2024, os eleitores já se deparam com conteúdos fakes alimentados pela IA que correm o risco de os confundir, segundo investigadores e autoridades dos EUA.
A proliferação de conteúdos fakes programados IA também ocorre no momento em que as empresas de mídia social tentam evitar ter que julgar questões delicadas de conteúdo em torno da política dos EUA. As plataformas também afirmam que querem respeitar as considerações de liberdade de expressão.
Cerca de 70 países que abrigam quase metade da população mundial – cerca de quatro bilhões de pessoas – deverão realizar eleições nacionais este ano, conforme a Fundação Internacional para Sistemas Eleitorais.
Embora as empresas que desenvolvem IAs e as redes sociais tenham políticas contra a utilização da IA de formas enganosas ou para ludibriar as pessoas acerca de eleições, é incerto até que ponto elas conseguem aplicar essas regras.
O presidente-executivo da OpenAI, Sam Altman, disse, em evento da Bloomberg no mês passado, durante a reunião anual do Fórum Econômico Mundial em Davos (Suíça), que, embora a OpenAI esteja preparando formas de defender seus usuários contra conteúdos fakes, ele está cauteloso sobre como a tecnologia de sua empresa pode ser usada nas eleições. “Teremos que observar isso de perto este ano”, disse.
A dona do ChatGPT afirma que está tomando várias medidas para se preparar para as eleições, incluindo:
- Proibição do uso das suas ferramentas para campanhas políticas;
- Codificação de detalhes sobre a procedência das imagens geradas por sua ferramenta Dall-E;
- Abordando questões sobre como e onde votar nos EUA com um link para CanIVote.org, operado pela Associação Nacional de Secretários de Estado.
No início de fevereiro, o conselho de supervisão da Meta, controladora de Facebook, WhatsApp e Instagram, considerou incoerentes as regras do Facebook sobre conteúdo adulterado após analisar incidente de 2023 no qual o Facebook não removeu um vídeo alterado de Biden.
O conselho, órgão externo criado pela empresa, concluiu que o Facebook respeitava a política existente, mas afirmou que a plataforma deveria agir rapidamente para esclarecer sua política sobre conteúdo manipulado antes das próximas eleições. Um porta-voz da Meta disse que a empresa estava revisando as orientações do conselho e responderia em 60 dias.
A Meta indicou que seu plano para as eleições em 2024 é amplamente consistente com os anos anteriores. Por exemplo, ela proibirá novos anúncios políticos uma semana antes das eleições de novembro nos EUA. A empresa de Mark Zuckerberg também rotula imagens fotorrealistas criadas usando seu recurso de IA.

Efeitos do deepfake nas eleições
As pessoas que estudaram as eleições debatem o quanto um deepfake de IA poderia realmente influenciar o voto de alguém, especialmente nos EUA, onde a maioria das pessoas diz que provavelmente já decidiu quem apoiará para presidente.
No entanto, a própria possibilidade de falsificações geradas por IA também poderia moldar a situação de forma diferente, levando as pessoas a questionar até mesmo imagens e gravações reais.
As alegações sobre a IA estão sendo utilizadas para “desacreditar coisas que as pessoas não querem acreditar” – por exemplo, vídeos legítimos dos ataques do Hamas a Israel, em 7 de outubro, disse Renée DiResta, gestora de investigação do Stanford Internet Observatory.
Os gigantes das redes sociais têm brigado há anos com questões relacionadas ao conteúdo político. Em 2020, fizeram de tudo para policiar o discurso político, em parte em resposta a relatos de interferência russa nas eleições dos EUA quatro anos antes. Agora, estão relaxando em alguns aspectos, especialmente o X (ex-Twitter), de Elon Musk, aponta o WSJ.
Desde a aquisição do Twitter em 2022, Musk mudou o nome do site e reverteu muitas de suas restrições anteriores em nome da liberdade de expressão. O X restabeleceu muitas contas suspensas e começou a vender marcas de verificação.
A rede social também demitiu mais de 1,2 mil trabalhadores de confiança e segurança, de acordo com números divulgados a um regulador australiano de segurança online no ano passado, parte de demissões generalizadas que Musk disse serem necessárias para estabilizar a situação financeira da empresa.
Mais recentemente, o X disse estar contratando mais funcionários de segurança, incluindo cerca de 100 moderadores de conteúdo que trabalharão em Austin, Texas, e em outros cargos em todo o mundo.
Por sua vez, o YouTube, do Google, disse que parou de remover vídeos, sob a alegação de fraude generalizada ocorrida em 2020 e em outras eleições anteriores nos EUA e citando preocupações sobre a restrição do discurso político.
A Meta assumiu posição similar ao permitir que anúncios políticos questionassem a legitimidade da vitória de Biden em 2020. A companhia também dispensou muitos funcionários que trabalhavam nas eleições durante demissões mais amplas a partir do final de 2022, embora a empresa diga que seus esforços gerais de confiança e segurança aumentaram.

Trump de volta
X, Meta e YouTube reintegraram Trump, que estava banido dessas redes após o ataque de 6 de janeiro de 2021 ao Capitólio dos EUA, citando razões que incluem que o público deveria ser capaz de ouvir o que os candidatos estão dizendo. Trump, pré-candidato à Casa Branca, fez repetidamente a falsa afirmação de que ganhou as eleições de 2020 ou de que estas foram “fraudadas”.
Katie Harbath, ex-diretora de políticas públicas do Facebook, disse acreditar que as plataformas se cansaram de tentar julgar questões relacionadas ao conteúdo político. Não há acordo claro sobre quais deveriam ser exatamente as regras e penalidades, acrescentou. “Muitos deles disseram: ‘Provavelmente é melhor para nós sermos o mais indiferentes possível’”, disse.
As empresas afirmam que continuam comprometidas em combater o conteúdo enganoso e em ajudar os usuários a obter informações confiáveis sobre como e onde votar. O X diz que seus esforços incluem o reforço de seu recurso de verificação de fatos, o Notas da Comunidade, que depende de voluntários para adicionar contexto às postagens.
Já os críticos, incluindo Musk e muitos conservadores, atacaram as medidas tomadas pelos gigantes das redes sociais para gerir o conteúdo político nos idos 2020, especialmente o X. Eles apontaram, por exemplo, um episódio pouco antes da votação de novembro de 2020, quando o então Twitter bloqueou temporariamente links para artigos do New York Post sobre Hunter Biden, filho do agora presidente Biden (vale ressaltar que o Post e o WSJ são propriedade da News Corp).
Mais tarde, os executivos do Twitter admitiram que haviam exagerado, mas disseram que agiram preocupados com materiais possivelmente hackeados, e não devido a tendências políticas.
Outras mudanças neste ciclo eleitoral resultaram de processo movido pelos procuradores-gerais republicanos de Missouri e Louisiana, que alegam que funcionários do governo Biden policiaram as postagens nas redes sociais de maneiras que equivaliam a censura inconstitucional.
Tribunais emitiram decisões impondo limites à forma como o governo federal poderia se comunicar com as plataformas de redes sociais, embora o Supremo Tribunal tenha posteriormente suspendido essas decisões. O caso está agora pendente no Supremo. Os republicanos do Congresso também têm investigado os esforços anti-desinformação.
“Estamos tendo alguma interação com empresas de mídia social, mas todas essas interações mudaram fundamentalmente após a decisão do tribunal”, disse o diretor do FBI, Christopher Wray, durante audiência no Senado, em outubro passado. Ele disse que a agência estava agindo “com muita cautela”.
Autoridades democráticas e investigadores de desinformação afirmam que tais comunicações são fundamentais para combater atividades de má conduta online, incluindo esforços de influência estrangeira.
As autoridades federais, por sua vez, dizem estarem em alerta. Até agora, os EUA não detectaram grande operação de interferência apoiada por estrangeiros visando as eleições de 2024, de acordo com altos funcionários da inteligência.
O general Paul Nakasone, recentemente reformado chefe do Comando Cibernético dos EUA e da Agência de Segurança Nacional, prometeu, antes de deixar o cargo, que as eleições de 2024 nos EUA seriam “as eleições mais seguras que tivemos” contra a interferência estrangeira.
“Se isso não vai funcionar necessariamente com a mesma metodologia que funcionou em 2022 ou 2020”, acrescentou, “então, temos que encontrar novas maneiras de fazê-lo”.