Siga o Olhar Digital no Google Discover
O governo do Reino Unido anunciou que irá proibir aplicativos de “nudificação”, que usam inteligência artificial para simular a remoção de roupas em imagens. A medida faz parte de uma estratégia maior para reduzir a violência contra mulheres e meninas.
Segundo autoridades, a proibição pretende impedir que a tecnologia seja usada para humilhar, explorar ou abusar de pessoas sem consentimento.

O que são os aplicativos de nudificação
Esses aplicativos utilizam IA generativa para criar imagens ou vídeos falsos, simulando nudez de alguém sem autorização, explica a BBC. Especialistas alertam que eles podem causar danos graves, principalmente quando usados para criar material de abuso sexual infantil (CSAM).
Mulheres e meninas merecem estar seguras online, assim como offline. Não ficaremos de braços cruzados enquanto a tecnologia é usada como arma para abusar, humilhar e explorar.
Liz Kendall, Secretária de Tecnologia do Reino Unido, à BBC.
Criar imagens deepfake explícitas sem consentimento já é crime, mas a nova lei torna ilegal também criar ou distribuir aplicativos que facilitem esse tipo de conteúdo.

Apoio de organizações e combate ao abuso infantil
Organizações de proteção à infância têm apoiado a iniciativa. A Internet Watch Foundation (IWF), que permite que menores denunciem imagens explícitas de si mesmos online, destacou que 19% dos denunciantes confirmaram que suas imagens foram manipuladas.
Leia mais:
- Inteligência artificial gera imagens íntimas falsas de adolescentes nos EUA
- “Sextorsão”: conheça o crime que preocupa o Instagram
- Google Messages vai alertar e desfocar imagens sensíveis
Sua diretora-executiva, Kerry Smith, afirmou que “aplicativos como este colocam crianças reais em risco ainda maior e vemos as imagens sendo coletadas em alguns dos cantos mais obscuros da internet.”
No entanto, apesar de ter elogiado a medida, a Dra. Maria Neophytou, da NSPCC, destacou a necessidade de proteções obrigatórias em dispositivos, para impedir a disseminação de CSAM em mensagens privadas e redes sociais.

Tecnologia e medidas preventivas
O governo britânico também anunciou parceria com empresas de tecnologia, incluindo a SafeToNet, que desenvolveu software de IA capaz de:
- Identificar e bloquear conteúdo sexual em imagens.
- Bloquear câmeras quando conteúdo sexual é detectado.
- Auxiliar plataformas a impedir que crianças compartilhem fotos íntimas.
Esses métodos se baseiam em filtros semelhantes aos usados por empresas como a Meta, que detectam e sinalizam nudez em imagens para proteção infantil.