Microsoft corrige brecha em IA que gerou imagens pornográficas de Taylor Swift

Falha no Microsoft Designer permitiu criação de deepfakes da cantora e várias outras celebridades
Por Ana Julia Pilato, editado por Bruno Capozzi 30/01/2024 18h43
Show de Taylor Swift
Imagem: Reprodução/trailer Oficial
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Na semana passada, uma série de nudes falsos da cantora Taylor Swift gerados com inteligência artificial viralizaram nas redes sociais. Após denúncias apontarem uma brecha utilizada para a criação das imagens no Designer, da Microsoft, a empresa anunciou a correção da falha e atualizou suas políticas sobre o uso de IA.

Entenda:

  • Recentemente, imagens pornográficas da cantora Taylor Swift criadas com IA viralizaram na internet;
  • Uma investigação do 404 Media identificou uma brecha no sistema de segurança da ferramenta, permitindo que os usuários gerassem nudes falsos de várias celebridades;
  • As imagens foram criadas por membros de grupos do 4chan e Telegram dedicados à criação de deepfakes pornográficos;
  • Após uma investigação interna, a Microsoft comunicou a correção da brecha e reforçou sua política de uso de IA.

Conforme divulgado pelo 404 Media, usuários do 4chan e Telegram se aproveitaram de uma brecha na segurança da ferramenta para gerar alguns dos deepfakes de Swift e outras celebridades. Ainda de acordo com a reportagem original, a Microsoft anunciou a correção da brecha e revelou que uma investigação interna está em andamento.

Leia mais:

Reforço das medidas de segurança

deepfake
(Imagem: Tero Vesalainen / Shutterstock)

A Microsoft enviou um pronunciamento ao 404 Media: “Nosso Código de Conduta proíbe o uso de nossas ferramentas para a criação de conteúdo adulto ou íntimo não consensual, e quaisquer tentativas repetidas de produzir conteúdo que contrarie nossas políticas podem resultar na perda de acesso ao serviço.”

A empresa ainda disse que não foi possível comprovar se as imagens foram realmente criadas no Designer, mas reforçou a atuação de “grandes equipes no desenvolvimento de grades de proteção e outros sistemas de segurança alinhados aos nossos princípios de IA responsável, incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para mitigar o uso indevido do sistema e ajudar a criar um ambiente mais seguro para os usuários.”

Ana Julia Pilato
Colaboração para o Olhar Digital

Ana Julia Pilato é formada em Jornalismo pela Universidade São Judas (USJT). Já trabalhou como copywriter e social media. Tem dois gatos e adora filmes, séries, ciência e crochê.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.