Múltiplas operações de influência secreta que abusaram dos modelos de IA da OpenAI foram bloqueadas pela startup criadora do ChatGPT, segundo informações da companhia reveladas na última quinta-feira (30).

Leia mais:

publicidade

As operações, que a OpenAI encerrou entre 2023 e 2024, tiveram origem na Rússia, China, Irã e Israel e tentaram manipular a opinião pública e influenciar resultados políticos sem revelar as suas verdadeiras identidades ou intenções.

“Em maio de 2024, essas campanhas não parecem ter aumentado significativamente o envolvimento ou o alcance do público como resultado de nossos serviços”, disse a OpenAI em um relatório sobre a operação, e acrescentou que trabalhou com pessoas de toda a indústria de tecnologia, civis sociedade e os governos para isolar os autores das campanhas.

publicidade
openAI
Responsáveis por campanha de influência usando IA esconderam suas identidades reais – Imagem: JRdes/Shutterstock

Preocupação sobre uso de IA para interferir nas eleições cresce

  • O relatório da OpenAI surge em meio a preocupações sobre o impacto da IA ​​generativa em múltiplas eleições em todo o mundo previstas para este ano, incluindo nos EUA.
  • Nas suas descobertas, a OpenAI revelou como redes de pessoas envolvidas em operações de influência usaram IA generativa para gerar textos e imagens em volumes muito maiores do que antes.
  • A operação russa, chamada “Doppelganger”, usou os modelos da empresa para gerar manchetes, converter artigos de notícias em postagens no Facebook e criar comentários em vários idiomas para minar o apoio à Ucrânia.

“Durante o último ano e meio, houve muitas questões sobre o que poderia acontecer se as operações de influência usassem IA generativa. Com este relatório, queremos realmente começar a preencher algumas lacunas.”, disse Ben Nimmo, investigador principal da equipe de Inteligência e Investigações da OpenAI, em uma coletiva de imprensa.

OpenAI
Operações usando IA buscavam manipular a opinião pública – Imagem: Camilo Concha/Shutterstock