Na manhã do dia de eleição no estado do Arizona (EUA), uma mensagem de voz de uma autoridade do governo informa que os locais de votação devem ficar abertos até às 21h. O funcionário responsável estranha o pedido, mas reconhece a voz da pessoa que enviou a mensagem e obedece.
Pouco tempo depois, o mesmo funcionário recebe um e-mail de outra autoridade informando que a mensagem de voz era falsa e que as urnas deveriam ser encerradas imediatamente, mesmo faltando horas para o fim da eleição. O e-mail também diz para enviar os resultados imediatamente.
Leia mais:
- OpenAI deleta voz de IA parecida com a da Scarlett Johansson; entenda
- Como evitar fake news? Veja 8 dicas para não cair em notícias falsas
- Como identificar fotos “falsas” criadas por IA
Nenhum dos dois casos é verdadeiro: tanto a voz quanto o e-mail, foram gerados por inteligência artificial (IA), tecnologia que assusta os Estados Unidos diante da iminência das eleições presidenciais deste ano. Mas o Arizona já está se preparando para lidar com isso.
IA nas eleições dos EUA
O cenário foi descrito pelo site The Verge e fez parte de uma simulação oferecida pelo Estado do Arizona a jornalistas convidados no início do mês. Na ocasião, os profissionais desempenharam o papel de funcionários eleitorais. O foco do encontro era discutir ameaças de IA nas eleições.
O evento fez parte de estratégia do Estado para combater o abuso da tecnologia durante o processo eleitoral: educar e preparar a imprensa e funcionários eleitorais não só sobre como agir diante de usos maliciosos, mas, também, de conscientizar sobre a escala e a seriedade da preparação.
Segundo o secretário de Estado do Arizona, Adrian Fontes, durante o início do evento, “queremos ter certeza de que fizemos tudo o que podíamos para tornar 2024 a melhor eleição possível”.

Como foi o evento
Segundo o site, o evento realizou uma série de exercícios sobre usos maliciosos da IA. O teste faz parte de um programa criado para funcionários eleitorais reais do Arizona.
O objetivo, segundo Angie Cloutier, gerente de operações de segurança do gabinete do secretário de Estado, “é dessensibilizar os funcionários eleitorais para a novidade e a estranheza” da IA.
Veja como foram os exercícios:
- Os repórteres participaram de apresentações em que especialistas mostravam quão fácil é usar a IA para criar desinformação;
- Em um dos exercícios, o especialista usou o perfil do LinkedIn de um jornalista da sala como exemplo. Ele gerou mensagens falsas e enviou e-mails com link de phishing disfarçado como URL do perfil;
- Em outro exemplo, ele usou a foto do jornalista e, em um gerador de imagem artificial, o vestiu com um macacão de preso. Depois, criou notícia com alegações falsas e fez com que a página se parecesse com o layout do The New York Times. Eles também usaram única gravação de voz para forjar mensagens;
- Nos exercícios seguintes, eles eram apresentados com situações de crise diante de usos maliciosos da IA e tinham de lidar com elas.

Simulação de usos maliciosos de IA nas eleições
Os exercícios eram criados para simular a pressão e o tempo real de resolução de situação durante as eleições. O próprio dia da votação foi simulado posteriormente. Os jornalistas relataram como novas ameaças surgiram antes que a anterior tivesse sido resolvida.
O evento aconteceu meses antes das eleições oficiais e as autoridades presentes destacaram como a IA muda rapidamente, obrigando os funcionários a fazerem o mesmo. O foco agora é na capacitação de funcionários eleitorais preparados para lidar com essas ameaças durante o dia real da votação.
Autoridades ainda destacam para a alta rotatividade desses profissionais entre eleições, com conhecimento institucional se perdendo no caminho e amplificando a necessidade de qualificação.
Fontes, porém, esclareceu: a IA não é nem boa, nem má. O foco nela neste ano eleitoral nos Estados Unidos é justamente devido ao ineditismo das ferramentas – e, consequentemente, de seus usos.