OpenAI bloqueou operações que buscavam influenciar resultados políticos

Países como Rússia e China foram alguns dos lugares onde as campanhas se originaram
Leandro Costa Criscuolo01/06/2024 02h15, atualizada em 04/06/2024 21h01
hacker
(Imagem: Maksim Shmeljov/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Múltiplas operações de influência secreta que abusaram dos modelos de IA da OpenAI foram bloqueadas pela startup criadora do ChatGPT, segundo informações da companhia reveladas na última quinta-feira (30).

Leia mais:

As operações, que a OpenAI encerrou entre 2023 e 2024, tiveram origem na Rússia, China, Irã e Israel e tentaram manipular a opinião pública e influenciar resultados políticos sem revelar as suas verdadeiras identidades ou intenções.

“Em maio de 2024, essas campanhas não parecem ter aumentado significativamente o envolvimento ou o alcance do público como resultado de nossos serviços”, disse a OpenAI em um relatório sobre a operação, e acrescentou que trabalhou com pessoas de toda a indústria de tecnologia, civis sociedade e os governos para isolar os autores das campanhas.

openAI
Responsáveis por campanha de influência usando IA esconderam suas identidades reais – Imagem: JRdes/Shutterstock

Preocupação sobre uso de IA para interferir nas eleições cresce

  • O relatório da OpenAI surge em meio a preocupações sobre o impacto da IA ​​generativa em múltiplas eleições em todo o mundo previstas para este ano, incluindo nos EUA.
  • Nas suas descobertas, a OpenAI revelou como redes de pessoas envolvidas em operações de influência usaram IA generativa para gerar textos e imagens em volumes muito maiores do que antes.
  • A operação russa, chamada “Doppelganger”, usou os modelos da empresa para gerar manchetes, converter artigos de notícias em postagens no Facebook e criar comentários em vários idiomas para minar o apoio à Ucrânia.

“Durante o último ano e meio, houve muitas questões sobre o que poderia acontecer se as operações de influência usassem IA generativa. Com este relatório, queremos realmente começar a preencher algumas lacunas.”, disse Ben Nimmo, investigador principal da equipe de Inteligência e Investigações da OpenAI, em uma coletiva de imprensa.

OpenAI
Operações usando IA buscavam manipular a opinião pública – Imagem: Camilo Concha/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.