Will Cathcart, chefe do WhatsApp, criticou a nova função da Apple para combater abuso infantil. A ferramenta escaneia fotos armazenadas no iCloud para reconhecer se há algum tipo de exploração de crianças nas imagens. Para isso, as fotos vão ser comparadas com o banco de dados Child Sexual Abuse Material (CSAM), que identifica esse tipo de material.

Apesar do foco em prevenir abuso infantil, a medida recebeu críticas por invadir a privacidade dos usuários, já que as imagens vão ser escaneadas pela ferramenta. Cathcart garantiu que o WhatsApp nunca vai adotar o recurso da Apple. “As pessoas perguntaram se nós do WhatsApp vamos adotar esse sistema. A resposta é não”, escreveu o chefe do mensageiro no Twitter.

publicidade

O mandatário disse que reconhece a importância de combater abuso infantil nas plataformas digitais, mas que analisar arquivos dos usuários para encontrar conteúdo ilegal é algo muito grave.

“Esse é um sistema de vigilância operacional que poderia facilmente ser usado para escanear conteúdo privado para detectar qualquer coisa que eles mesmos ou um governo quiser controlar. Países onde iPhones são vendidos terão definições diferentes do que é aceitável”, explica Cathcart.

WhatsApp critica Apple

Segundo a própria Apple, as chances do sistema identificar uma imagem como imprópria incorretamente são de “1 em um trilhão”. O mecanismo funciona comparando as fotos do iCloud com imagens do Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA. Com isso, se determinadas características baterem, a ferramenta vai notificar.

Leia mais!

De acordo com a empresa, ela não tem acesso as imagens até que uma determinar porcentagem de reconhecimento seja atingida. Esse limite, no entanto, não foi divulgado. Outro problema destacado por Cathcart é uma possível vulnerabilidade do sistema, que poderia expor o conteúdo dessas fotos para hackers.

“Imagine se alguém te envia uma imagem sobre política inofensiva e que você compartilha essa imagem com um amigo? Mas e se aquela imagem tiver um hash igual a de um arquivo conhecido de pornografia infantil?”, disse também Matthew Green, professor de cibersegurança na Universidade Johns Hopkins.

Já assistiu aos nossos vídeos no YouTube? Inscreva-se no nosso canal!