O Conselho de Supervisão da Meta disse nesta quinta-feira (25) que as regras da empresa “não eram suficientemente claras” ao proibir representações sexualmente explícitas de pessoas reais geradas por IA e pediu mudanças para impedir que tais imagens circulem em suas plataformas.

O conselho, que é financiado pela Meta, mas opera de forma independente, emitiu sua decisão após analisar duas falsificações pornográficas de mulheres famosas criadas com inteligência artificial e postadas no Facebook e no Instagram, segundo informa a Reuters.

publicidade

A Meta disse que revisaria as recomendações do conselho e forneceria uma atualização sobre quaisquer mudanças adotadas.

No seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações com a privacidade.

publicidade

O conselho descobriu que ambas as imagens violavam a regra da Meta que proíbe o “photoshop sexualizado depreciativo”, que a empresa classifica como uma forma de intimidação e assédio, e disse que a Meta deveria tê-las removido imediatamente.

Leia mais:

publicidade
Meta não estaria sendo eficaz para barrar deepfakes em suas redes sociais – Imagem: R.bussarin/Shutterstock

Meta demorou para atender alerta sobre imagem depreciativa

  • No caso envolvendo a indiana, a Meta não conseguiu revisar o relato do usuário sobre a imagem em 48 horas, fazendo com que a denúncia fosse fechada automaticamente sem nenhuma ação tomada.
  • O usuário recorreu, mas a empresa novamente se recusou a agir e só mudou de rumo depois que o conselho aceitou o caso.
  • No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.
  • “As restrições a este conteúdo são legítimas”, afirmou o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única forma eficaz de proteger as pessoas afetadas”.

O conselho recomendou que a Meta atualizasse sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é muito restrito, e a proibição deveria abranger uma ampla gama de técnicas de edição, incluindo IA generativa.

O conselho também criticou a Meta por se recusar a adicionar a imagem da indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da americana.

publicidade

A Meta teria respondido ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.

“Muitas vítimas de imagens íntimas falsas não são conhecidas do público e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar todos os casos”, afirmou o conselho.

deepfakes
Imagens falsas que partem de IA generativa não estariam sendo detectadas corretamente, alega o conselho da Meta – Imagem: MDV Edwards/Shutterstock