Na semana passada, uma série de nudes falsos da cantora Taylor Swift gerados com inteligência artificial viralizaram nas redes sociais. Após denúncias apontarem uma brecha utilizada para a criação das imagens no Designer, da Microsoft, a empresa anunciou a correção da falha e atualizou suas políticas sobre o uso de IA.

Entenda:

publicidade
  • Recentemente, imagens pornográficas da cantora Taylor Swift criadas com IA viralizaram na internet;
  • Uma investigação do 404 Media identificou uma brecha no sistema de segurança da ferramenta, permitindo que os usuários gerassem nudes falsos de várias celebridades;
  • As imagens foram criadas por membros de grupos do 4chan e Telegram dedicados à criação de deepfakes pornográficos;
  • Após uma investigação interna, a Microsoft comunicou a correção da brecha e reforçou sua política de uso de IA.

Conforme divulgado pelo 404 Media, usuários do 4chan e Telegram se aproveitaram de uma brecha na segurança da ferramenta para gerar alguns dos deepfakes de Swift e outras celebridades. Ainda de acordo com a reportagem original, a Microsoft anunciou a correção da brecha e revelou que uma investigação interna está em andamento.

Leia mais:

publicidade

Reforço das medidas de segurança

deepfake
(Imagem: Tero Vesalainen / Shutterstock)

A Microsoft enviou um pronunciamento ao 404 Media: “Nosso Código de Conduta proíbe o uso de nossas ferramentas para a criação de conteúdo adulto ou íntimo não consensual, e quaisquer tentativas repetidas de produzir conteúdo que contrarie nossas políticas podem resultar na perda de acesso ao serviço.”

A empresa ainda disse que não foi possível comprovar se as imagens foram realmente criadas no Designer, mas reforçou a atuação de “grandes equipes no desenvolvimento de grades de proteção e outros sistemas de segurança alinhados aos nossos princípios de IA responsável, incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para mitigar o uso indevido do sistema e ajudar a criar um ambiente mais seguro para os usuários.”