Deepfakes de IA: como apps “nudify” ameaçam a privacidade

Mulheres descobrem que fotos nas redes sociais foram usadas em deepfakes sexuais e pressionam por leis contra abuso de tecnologia de IA
Ana Luiza Figueiredo28/09/2025 14h03
deepfake
(Imagem: FAMILY STOCK / Shutterstock.com)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Um grupo de amigas de Minneapolis, Minnesota, descobriu que fotos pessoais compartilhadas nas redes sociais foram usadas para criar deepfakes pornográficos, expondo um lado perigoso e pouco conhecido da inteligência artificial. A descoberta aconteceu em junho do ano passado, quando a consultora de tecnologia Jessica Guistolise recebeu uma mensagem alertando que mais de 80 mulheres da região tiveram suas imagens manipuladas em conteúdos sexuais criados por inteligência artificial.

Segundo reportagem da CNBC, os vídeos e fotos falsos foram produzidos utilizando o site DeepSwap, um dos chamados aplicativos “nudify”. Esses serviços permitem que qualquer pessoa, sem conhecimento técnico, crie imagens e vídeos explícitos não consensuais. O caso das mulheres de Minnesota evidencia como ferramentas de IA podem ser usadas para violar a privacidade e gerar danos reais à vida das pessoas.

fotos computador
Fotos de mais de 80 mulheres encontradas no computador de um indivíduo foram usadas para criar deepfakes pornográficos (Imagem: Golden Dayz / Shutterstock.com)

O impacto da descoberta

Em junho do ano passado, Jessica Guistolise recebeu uma mensagem de uma conhecida chamada Jenny, alertando que o ex-marido, Ben, havia usado fotos de redes sociais para criar deepfakes pornográficos. Jenny mostrou a Guistolise fotos tiradas diretamente do computador de Ben, que revelavam imagens manipuladas de mais de 80 mulheres, incluindo algumas das amigas de Guistolise, como a estudante de direito Molly Kelley.

Ao analisar as imagens manipuladas, Guistolise percebeu que algumas tinham origem em momentos íntimos de sua vida: fotos de férias em família e da formatura de sua afilhada, todas retiradas de seu Facebook.

O grupo se organizou para entender a dimensão do problema e buscar formas legais de agir. Apesar de Ben ter admitido a criação dos deepfakes, não havia evidências de que ele tivesse distribuído as imagens, o que dificultava enquadrar suas ações dentro da lei. “Ele não quebrou nenhuma lei que conhecemos”, afirmou Kelley, destacando a lacuna legal frente às novas tecnologias.

Nudify: fácil, acessível e perigoso

Ferramentas como DeepSwap oferecem planos de assinatura e são anunciadas em plataformas como Facebook e Instagram, além de estarem disponíveis na App Store e Google Play. Especialistas alertam que o processo de criação de imagens explícitas é extremamente rápido e acessível. Segundo Haley McNamara, do National Center on Sexual Exploitation, é possível gerar um deepfake sexual realista a partir de apenas uma foto em menos tempo do que se leva para fazer um café.

deepfake
Vídeos e fotos falsos foram produzidos com um aplicativo “nudify” (Imagem: FAMILY STOCK / Shutterstock.com)

A facilidade de acesso e a popularização dessas ferramentas ampliam os riscos, especialmente para mulheres, que historicamente têm sido as principais vítimas. Pesquisadores da Universidade da Flórida e da Georgetown University destacam que sites como DeepSwap adotam modelos de assinatura semelhantes aos de aplicativos convencionais, tornando-se parte de um mercado lucrativo, embora relativamente pequeno dentro da IA generativa.

O que são apps “nudify”

  • Apps “nudify” são aplicativos que usam inteligência artificial para alterar fotos de pessoas, simulando que elas estão nuas.
  • A tecnologia consegue substituir roupas por uma versão digital do corpo da pessoa, criando imagens falsas que podem parecer realistas.
  • Esses aplicativos funcionam a partir de redes neurais e algoritmos de deep learning, analisando a imagem original e reconstruindo áreas do corpo de forma artificial.

Consequências psicológicas

O trauma causado pelos deepfakes gerados pelo ex-amigo do grupo foi intenso. Kelley, grávida na época, relatou aumento de estresse e impacto na saúde, enquanto Megan Hurley sentiu paranoia e ansiedade, chegando a pedir a amigos que fizessem capturas de tela caso encontrassem imagens dela online. Pesquisadores apontam que mesmo sem divulgação pública, a simples existência do conteúdo gera medo e sensação de vulnerabilidade.

Ações legais e políticas

O grupo buscou apoio de legisladores locais, incluindo a senadora estadual Erin Maye Quade, que patrocinou uma proposta de lei em Minnesota. O projeto prevê multas de US$ 500 mil para empresas que disponibilizem serviços de nudify e criem deepfakes sexuais sem consentimento. A medida foca na criação do conteúdo, e não apenas na sua distribuição, tentando suprir lacunas da legislação existente, que ainda enfrenta desafios para regular empresas internacionais.

Em nível federal, o Take It Down Act, sancionado pelo presidente Donald Trump, criminaliza a publicação online de imagens e vídeos sexuais não consensuais, incluindo deepfakes. Contudo, especialistas apontam que a lei não resolve completamente situações em que o conteúdo nunca foi compartilhado publicamente.

O cenário internacional e o mercado de deepfakes

O problema vai além dos Estados Unidos. Em 2024, um australiano foi condenado a nove anos de prisão por criar deepfakes de 26 mulheres, enquanto autoridades investigaram casos envolvendo dezenas de adolescentes. O crescimento de serviços de nudify e a publicidade de aplicativos em redes sociais indicam que o mercado continua em expansão, mesmo com a retirada de sites populares como MrDeepFakes.

No Brasil, um grupo de criminosos foi acusado de usar a inteligência artificial para criar deepfakes pornográficos a partir de fotos de mulheres publicadas em redes sociais, inclusive com a participação de comunidades no Facebook e no Telegram que aceitam “encomendas” de imagens falsas.

Plataformas como Meta e órgãos estaduais têm buscado remover anúncios e aplicativos relacionados, mas especialistas em segurança digital alertam que novos canais, como Discord, têm sido usados para trocar informações sobre criação de conteúdo sexual de IA.

Leia mais:

Um alerta para o público

Guistolise e suas amigas seguem tentando reconstruir suas vidas e alertar o público sobre os riscos da tecnologia. “É importante que as pessoas saibam que isso existe, é acessível e fácil de fazer, e precisa parar”, afirmou Guistolise.

Mulher com os olhos assustados observando, da borda de uma mesa, um monitor de computador
Fotos publicadas nas redes sociais são visadas (Imagem: megaflopp/Shutterstock)

O caso das mulheres de Minnesota evidencia como a IA, quando mal utilizada, pode causar danos reais e duradouros, reforçando a necessidade de legislação e conscientização sobre deepfakes.

Ana Luiza Figueiredo é repórter do Olhar Digital. Formada em Jornalismo pela Universidade Federal de Uberlândia (UFU), foi Roteirista na Blues Content, criando conteúdos para TV e internet.