Imagem: Jamie Lamor Thompson/Shutterstock
Imagens falsas e com teor sexual da cantora Taylor Swift viralizaram nas redes sociais nesta semana. Os conteúdos são deepfakes, uma tecnologia de IA usada para criar fotos e vídeos falsos de pessoas reais. Apesar de plataformas online, como o X/Twitter (onde as fotos foram compartilhadas), não permitirem a publicação desse tipo de conteúdo, especialistas revelam que as medidas de proteção não têm impacto na prática e escancaram problemas da IA.
Leia mais:
As imagens falsas de Taylor Swift surgiram em um canal de mensagens no Telegram, mas rapidamente se espalharam para outras redes sociais. No X/Twitter, elas foram visualizadas 47 milhões de vezes antes da conta que as publicou ser suspensa na quinta-feira (25). No entanto, o conteúdo já havia viralizado e chegado a outras redes sociais, além de ser repostado por outros perfis, alguns dos quais também foram suspensos.
O X disse que estava trabalhando para remover as imagens e limitar o compartilhamento. A plataforma ainda tem dificuldade em frear o alcance das deepfakes e outros conteúdos de ódio, principalmente depois que Elon Musk assumiu o comando e afrouxou restrições e moderação de conteúdo.
Enquanto isso, fãs da cantora apelaram por proteção e viralizaram as palavras-chave “Protejam Taylor Swift”.
À medida que a IA se popularizou e as deepfakes começaram a aparecer, as desenvolvedoras rapidamente tomaram medidas para limitar a produção de imagens, vídeos e áudios falsos, mas ainda têm desafios. Por exemplo, no ano passado, plataformas de IA foram usadas para criar vídeos falsos do presidente americano Joe Biden.
Taylor Swift também já foi vítima de deepfakes. Neste mês, anúncios mostravam a artista vendendo utensílios de cozinha.
Veja o que dizem especialistas sobre os perigos da IA na internet:
Esta post foi modificado pela última vez em 26 de janeiro de 2024 14:03