A revolução na Inteligência Artificial (IA) veio com consequências. Já é possível falsificar vozes e imagens, e até criar uma namorada artificial. Infelizmente, dá para ir além: recentemente, a popularização das deepfakes tem provocado um aumento dos conteúdos realistas que mostram exploração sexual, pedofilia e pornografia infantil, o que pode prejudicar investigações reais, atrapalhar os esforços em achar as vítimas e punir criminosos.

Leia mais:

publicidade

IA e pedofilia

  • Com a possibilidade de gerar imagens artificiais, fóruns de pedófilos têm espalhado imagens realistas de crianças realizando atos sexuais.
  • Como as mídias são divulgadas em locais da web em que é quase impossível detectar o usuário, como a dark web, fica muito difícil barrar a pornografia infantil e responsabilizar os criminosos.
  • Ainda, os fóruns incitam outros usuários a fazerem o mesmo e indicam plataformas que geram essas imagens.
  • Para além do conteúdo criminoso, essa tendência está prejudicando investigações reais para identificar vítimas de exploração sexual e pedofilia.

Investigações prejudicadas

Segundo Rebecca Portnoff, diretora de ciência de dados do Thorn, um grupo sem fins lucrativos de segurança infantil, a identificação de uma vítima já é difícil. O realismo das imagens torna ainda mais complicado para as autoridades identificarem crianças em perigo.

O volume de imagens, além de sobrecarregar os profissionais, dá mais uma tarefa para os envolvidos na investigação: gastar tempo diferenciando quais conteúdos são reais e quais foram gerados artificialmente.

publicidade

Tudo isso, além do desafio real em identificar a criança e encontrá-la, bem como o criminoso.

Ilustração de tecnologia de reconhecimento facial em cima de rosto de mulher
Além de ter que lidar com o volume de imagens, polícia terá de aprender a diferenciar fotos reais e falsas, o que dificulta ainda mais a investigação (Imagem: Adobe Stock)

Leis

Muitas vezes, as imagens criam crianças que não existem. Mas, claro, o conteúdo ainda é ilegal. Apesar de haver debates divergentes no que diz respeitos às imagens artificiais não retratarem casos reais, uma lei federal dos EUA, aprovada em 2023, proíbe que qualquer imagem gerada por computador mostre uma criança envolvida em conduta sexualmente explícita, seja ela real ou não.

publicidade

Ferramentas de IA que geram imagens

  • Não é possível identificar em quais ferramentas as imagens foram geradas. Porém, especialistas em segurança infantil afirmam que muitos dos criminosos parecem ter confiado em programas de código aberto, como Stable Diffusion.
  • A Stability AI, que administra o Stable Diffusion, comunicou que proíbe a criação de imagens de abuso sexual infantil, colabora com as investigações policiais sobre os conteúdos “ilegais e maliciosos” e remove conteúdos explícitos, para reduzir a “capacidade de maus atores para gerar conteúdo obsceno.”
  • Ainda assim, é possível contornar essas políticas.
  • No ano passado, inclusive, o executivo-chefe da Stability AI, Emad Mostaque, disse ao The Verge que a responsabilidade é das pessoas em diferenciar o que é ético e legal ou não ao usar a tecnologia.
  • Empresas concorrentes da Stable Diffusion, como o Dall-E e o Midjourney, têm códigos fechados, o que limita o conteúdo criado e rastreia o usuário.
Nesse aspecto, IA ainda esbarra em questões legais (Foto: Reprodução)

Casos reais

O Centro Nacional para Crianças Desaparecidas e Exploradas, uma organização sem fins lucrativos que administra um banco de dados que as empresas usam para sinalizar e bloquear material sexual infantil, recebeu mais de 32 milhões de denúncias de conteúdos de exploração sexual e pornografia infantil no ano passado.

Além disso, este mês, o FBI emitiu um alerta que mostra que os conteúdos de crianças alterados para “imagens com temas sexuais que parecem reais” aumentou.

publicidade

Com informações de Washington Post

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!