Menos de um dia depois de tumultuar a internet, o aplicativo Deepfake, que usava inteligência artificial (IA) para criar fotos de mulheres nuas, foi desativado. Em um tweet, a equipe por trás do DeepNude disse que eles “subestimaram” o interesse pelo projeto e que “a probabilidade de que as pessoas o usem de forma abusiva é muito alta”.

O app não será mais oferecido para venda, e versões posteriores não serão lançadas. Seus desenvolvedores também alertaram o público sobre seu compartilhamento online, dizendo que tal prática vai contra os termos de serviço do aplicativo. No entanto, não deixaram de reconhecer que “certamente algumas cópias” aparecerão.

publicidade

O Motherboard foi o primeiro a chamar a atenção para DeepNude, ontem (26) à tarde. O aplicativo, disponível para Windows e Linux, usava IA para alterar fotos, fazendo com que uma pessoa, mais especificamente uma mulher, aparecesse nua na imagem gerada. O app estava à venda há alguns meses. A equipe do DeepNude, porém, afirmou que, “honestamente, o aplicativo não é tão bom” no que faz.

Fato é que ele funcionou bem o suficiente para gerar uma preocupação generalizada em torno de seu uso. Embora as pessoas pudessem manipular fotos digitalmente por muito tempo, o DeepNude tornou essa capacidade instantânea e disponível para qualquer um. Essas fotos poderiam ser usadas para assediar as mulheres por meio do chamado porn revenge (vingança pornô) — a tecnologia de deepfake já foi usada para editar mulheres em vídeos pornográficos sem o seu consentimento, por exemplo.

O criador do aplicativo, que é conhecido apena por Alberto, disse ao The Verge que acreditava que alguém, em breve, faria um aplicativo como o DeepNude se ele não o fizesse primeiro. “A tecnologia está pronta (ao alcance de todos)”, disse ele. Alberto disse que, caso veja uma má utilização do serviço, a equipe do DeepNude “vai desistir disso [da ideia], com certeza”.

A equipe do DeepNude termina sua mensagem anunciando o desligamento do app, dizendo que “o mundo ainda não está pronto para o DeepNude” — como se houvesse algum tempo futuro em que a população estaria pronta para usar o software apropriadamente.

A leitura de Jacob Kastrenakes, jornalista do The Verge, sobre o futuro desse tipo de ferramenta é interessante. Para ele, “os deepfakes só se tornarão mais fáceis de fazer e mais difíceis de detectar, e, em última análise, saber se algo é real ou falso não é o verdadeiro problema. Esses aplicativos permitem que as imagens das pessoas sejam usadas de maneira rápida e fácil, e, por enquanto, há poucas proteções para evitar que isso aconteça.