No ano passado, Mark, um pai de San Francisco, nos Estados Unidos, usou seu celular Android para fotografar uma infecção na virilha do filho e em seguida o Google alertou as autoridades de que as imagens eram material de abuso sexual infantil (CSAM).

De acordo com o relatório do The New York Times, o Google fechou as contas e apresentou um relatório ao National Center for Missing and Exploited Children (NCMEC) e incentivou uma investigação policial, enfatizando as dificuldades de diferenciar fotos de abusos em potencial de fotos inocentes, quando ela se torna parte da galeria de um usuário no próprio aparelho ou no armazenamento em nuvem.

publicidade

Leia mais:

Em 2021, a Apple tomou a dianteira quanto à preocupação dos resultados de não deixar claro os limites do que deve ser considerado privado e anunciou seu plano de segurança infantil. Como parte deste plano, a empresa digitalizou as imagens nos próprios dispositivos antes de serem carregadas no iCloud e depois comparar cada uma com o banco de dados da NCMED da CSAM. Se fossem encontradas imagens semelhantes, um moderador humano revisaria então o conteúdo e bloquearia a conta do usuário.

publicidade

O grupo sem fins lucrativos de direitos autorias, Eletronic Frontier Foundation, golpeou o plano da Apple e disse que teria potencial para “abrir uma porta traseira na vida privada”, além de representar “uma queda na privacidade de todos os usuários do iCloud Photos”.

De vez em quando a Apple coloca a parte de digitalização de imagens armazenadas em espera, mas depois do lançamento do iOS 15.2, continuaram com a introdução de uma ferramenta opcional para as contas das crianças que são incluídas no plano de compartilhamento familiar.

publicidade
Google Campus
Imagem: VDB Photos/Shutterstock

Se por acaso os pais escolherem ter a conta da criança, o aplicativo Messages vai analisar os anexos de imagens e indicar se a foto mostra nudez, mas mantendo a criptografia de ponta a ponta dessas mensagens. Se acusar nudez, ele vai embaçar a imagem automaticamente e mostrará um aviso para a criança e exibirá ferramentas para ajustar a segurança online.

Um porta-voz do Google contou ao Times que a empresa só escaneia as imagens pessoais dos usuários quando o próprio tem uma ação afirmativa, que pode incluir backup de suas fotos para o Google Photos. Quando o Google aponta as imagens exploradas, a plataforma é obrigada por lei federal a denunciar o potencial criminoso ao CyberTipLine na NCMEC.

publicidade

Só em 2021, o Google reportou 621.583 casos, enquanto a NCMEC alertou as autoridades de 4.260 vítimas em potencial. Conforme dito pelo The New York Times, essa lista de vítimas inclui o filho de Mark. Este pai acabou perdendo o acesso aos e-mails, contatos, fotos e números de telefone porque utilizava o Google Fi. Ele tentou imediatamente apelar para a decisão da empresa, mas seu pedido foi negado.

O Departamento de Polícia de São Francisco  abriu uma investigação sobre Mark em dezembro do ano passado e teve acesso a todas as informações que ele armazenava com o Google. O investigador descobriu que a foto não tinha elementos de um crime e que também não havia indícios de que teria acontecido algum.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!