Imagens falsas e com teor sexual da cantora Taylor Swift viralizaram nas redes sociais nesta semana. Os conteúdos são deepfakes, uma tecnologia de IA usada para criar fotos e vídeos falsos de pessoas reais. Apesar de plataformas online, como o X/Twitter (onde as fotos foram compartilhadas), não permitirem a publicação desse tipo de conteúdo, especialistas revelam que as medidas de proteção não têm impacto na prática e escancaram problemas da IA.

Leia mais:

publicidade

Deepfakes de IA da Taylor Swift

As imagens falsas de Taylor Swift surgiram em um canal de mensagens no Telegram, mas rapidamente se espalharam para outras redes sociais. No X/Twitter, elas foram visualizadas 47 milhões de vezes antes da conta que as publicou ser suspensa na quinta-feira (25). No entanto, o conteúdo já havia viralizado e chegado a outras redes sociais, além de ser repostado por outros perfis, alguns dos quais também foram suspensos.

O X disse que estava trabalhando para remover as imagens e limitar o compartilhamento. A plataforma ainda tem dificuldade em frear o alcance das deepfakes e outros conteúdos de ódio, principalmente depois que Elon Musk assumiu o comando e afrouxou restrições e moderação de conteúdo.

publicidade

Enquanto isso, fãs da cantora apelaram por proteção e viralizaram as palavras-chave “Protejam Taylor Swift”.

Captura de tela de anúncio falso com deepfake de Taylor Swift
Este mês, imagens geradas artificialmente imitaram Taylor Swift vendendo panelas (Imagem: Reprodução/The New York Times)

Dificuldades em frear conteúdos falsos

À medida que a IA se popularizou e as deepfakes começaram a aparecer, as desenvolvedoras rapidamente tomaram medidas para limitar a produção de imagens, vídeos e áudios falsos, mas ainda têm desafios. Por exemplo, no ano passado, plataformas de IA foram usadas para criar vídeos falsos do presidente americano Joe Biden.

publicidade

Taylor Swift também já foi vítima de deepfakes. Neste mês, anúncios mostravam a artista vendendo utensílios de cozinha.

(Imagem: Reprodução/Kapersky)

Veja o que dizem especialistas sobre os perigos da IA na internet:

  • Oren Etzioni, professor de ciência da computação da Universidade de Washington que trabalha com detecção de deepfake, falou ao The New York Times que pornografia não consensual sempre foi uma tendência na internet, mas que a IA deve aumentar a produção desse tipo de conteúdo.
  • Apesar das desenvolvedoras se esforçarem para limitar a produção, Etzioni revelou que os usuários sempre acham um “jailbreak”, uma forma de manipular a IA e derrubar essa barreira de proteção.
  • Ben Colman, co-presidente e fundador da Reality Defender, afirmou que alguns estados chegaram a restringir deepfakes pornográficos e com teor político, mas não tiveram o resultado esperado.
  • Ele completou que as plataformas pedem que os usuários denunciem os conteúdos ilegais quando os veem, mas, nesse momento, milhões de outras pessoas já os compartilharam. Ou seja, não funcionou.
  • A deputada democrata Yvette D. Clarke, de Nova York, onde um projeto de lei pede a criminalização de imagens desse tipo, disse ao jornal que os avanços de IA tornaram a produção de deepfakes mais fácil e barato.