Siga o Olhar Digital no Google Discover
Um grupo de amigas de Minneapolis, Minnesota, descobriu que fotos pessoais compartilhadas nas redes sociais foram usadas para criar deepfakes pornográficos, expondo um lado perigoso e pouco conhecido da inteligência artificial. A descoberta aconteceu em junho do ano passado, quando a consultora de tecnologia Jessica Guistolise recebeu uma mensagem alertando que mais de 80 mulheres da região tiveram suas imagens manipuladas em conteúdos sexuais criados por inteligência artificial.
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Segundo reportagem da CNBC, os vídeos e fotos falsos foram produzidos utilizando o site DeepSwap, um dos chamados aplicativos “nudify”. Esses serviços permitem que qualquer pessoa, sem conhecimento técnico, crie imagens e vídeos explícitos não consensuais. O caso das mulheres de Minnesota evidencia como ferramentas de IA podem ser usadas para violar a privacidade e gerar danos reais à vida das pessoas.

O impacto da descoberta
Em junho do ano passado, Jessica Guistolise recebeu uma mensagem de uma conhecida chamada Jenny, alertando que o ex-marido, Ben, havia usado fotos de redes sociais para criar deepfakes pornográficos. Jenny mostrou a Guistolise fotos tiradas diretamente do computador de Ben, que revelavam imagens manipuladas de mais de 80 mulheres, incluindo algumas das amigas de Guistolise, como a estudante de direito Molly Kelley.
Ao analisar as imagens manipuladas, Guistolise percebeu que algumas tinham origem em momentos íntimos de sua vida: fotos de férias em família e da formatura de sua afilhada, todas retiradas de seu Facebook.
O grupo se organizou para entender a dimensão do problema e buscar formas legais de agir. Apesar de Ben ter admitido a criação dos deepfakes, não havia evidências de que ele tivesse distribuído as imagens, o que dificultava enquadrar suas ações dentro da lei. “Ele não quebrou nenhuma lei que conhecemos”, afirmou Kelley, destacando a lacuna legal frente às novas tecnologias.
Nudify: fácil, acessível e perigoso
Ferramentas como DeepSwap oferecem planos de assinatura e são anunciadas em plataformas como Facebook e Instagram, além de estarem disponíveis na App Store e Google Play. Especialistas alertam que o processo de criação de imagens explícitas é extremamente rápido e acessível. Segundo Haley McNamara, do National Center on Sexual Exploitation, é possível gerar um deepfake sexual realista a partir de apenas uma foto em menos tempo do que se leva para fazer um café.

A facilidade de acesso e a popularização dessas ferramentas ampliam os riscos, especialmente para mulheres, que historicamente têm sido as principais vítimas. Pesquisadores da Universidade da Flórida e da Georgetown University destacam que sites como DeepSwap adotam modelos de assinatura semelhantes aos de aplicativos convencionais, tornando-se parte de um mercado lucrativo, embora relativamente pequeno dentro da IA generativa.
O que são apps “nudify”
- Apps “nudify” são aplicativos que usam inteligência artificial para alterar fotos de pessoas, simulando que elas estão nuas.
- A tecnologia consegue substituir roupas por uma versão digital do corpo da pessoa, criando imagens falsas que podem parecer realistas.
- Esses aplicativos funcionam a partir de redes neurais e algoritmos de deep learning, analisando a imagem original e reconstruindo áreas do corpo de forma artificial.
Consequências psicológicas
O trauma causado pelos deepfakes gerados pelo ex-amigo do grupo foi intenso. Kelley, grávida na época, relatou aumento de estresse e impacto na saúde, enquanto Megan Hurley sentiu paranoia e ansiedade, chegando a pedir a amigos que fizessem capturas de tela caso encontrassem imagens dela online. Pesquisadores apontam que mesmo sem divulgação pública, a simples existência do conteúdo gera medo e sensação de vulnerabilidade.
Ações legais e políticas
O grupo buscou apoio de legisladores locais, incluindo a senadora estadual Erin Maye Quade, que patrocinou uma proposta de lei em Minnesota. O projeto prevê multas de US$ 500 mil para empresas que disponibilizem serviços de nudify e criem deepfakes sexuais sem consentimento. A medida foca na criação do conteúdo, e não apenas na sua distribuição, tentando suprir lacunas da legislação existente, que ainda enfrenta desafios para regular empresas internacionais.
Em nível federal, o Take It Down Act, sancionado pelo presidente Donald Trump, criminaliza a publicação online de imagens e vídeos sexuais não consensuais, incluindo deepfakes. Contudo, especialistas apontam que a lei não resolve completamente situações em que o conteúdo nunca foi compartilhado publicamente.
O cenário internacional e o mercado de deepfakes
O problema vai além dos Estados Unidos. Em 2024, um australiano foi condenado a nove anos de prisão por criar deepfakes de 26 mulheres, enquanto autoridades investigaram casos envolvendo dezenas de adolescentes. O crescimento de serviços de nudify e a publicidade de aplicativos em redes sociais indicam que o mercado continua em expansão, mesmo com a retirada de sites populares como MrDeepFakes.
No Brasil, um grupo de criminosos foi acusado de usar a inteligência artificial para criar deepfakes pornográficos a partir de fotos de mulheres publicadas em redes sociais, inclusive com a participação de comunidades no Facebook e no Telegram que aceitam “encomendas” de imagens falsas.
Plataformas como Meta e órgãos estaduais têm buscado remover anúncios e aplicativos relacionados, mas especialistas em segurança digital alertam que novos canais, como Discord, têm sido usados para trocar informações sobre criação de conteúdo sexual de IA.
Leia mais:
- Real ou deepfake? Veja como identificar se uma imagem foi gerada por inteligência artificial
- Deepfake em eleições já é real: entenda caso de multa de candidato em MS
- O que são deepfakes e qual a relação com inteligência artificial?
Um alerta para o público
Guistolise e suas amigas seguem tentando reconstruir suas vidas e alertar o público sobre os riscos da tecnologia. “É importante que as pessoas saibam que isso existe, é acessível e fácil de fazer, e precisa parar”, afirmou Guistolise.

O caso das mulheres de Minnesota evidencia como a IA, quando mal utilizada, pode causar danos reais e duradouros, reforçando a necessidade de legislação e conscientização sobre deepfakes.