Apple adia plano para escanear telefones em busca de material de abuso infantil

Atualização da Apple para o iOS 15 iria escanear mensagens e imagens para detectar abuso infantil, mas foi adiada por controvérsia
Por Gabriel D. Lourenço, editado por André Lucena 03/09/2021 13h50, atualizada em 03/09/2021 14h59
WhatsApp critica Apple por nova função para escanear fotos
Imagem: HTWE/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A Apple publicou uma atualização da nota sobre as mecânicas da 15ª versão de seu sistema operacional iOS, informando que o plano de escanear aparelhos automaticamente em busca de material de abuso infantil está em pausa. O sistema, que detectaria conteúdo de pedofilia presente no iCloud automaticamente, teve sua implementação adiada após riscos de invasão de privacidade.

“Baseada no retorno de clientes, grupos sociais, pesquisadores e outros, decidimos levar mais tempo nos próximos meses para coletar opiniões e aplicar melhorias antes de implementar este recurso criticamente importante de proteção infantil.”

A controvérsia se deu após o uso de uma das mecânicas que informaria a crianças que estão recebendo ou enviando conteúdo sexualmente explícito pelo Messages. A Apple utilizaria algoritmos para detectar se os materiais são, de fato, impróprios, e borraria o conteúdo antes, perguntando se queriam ver.

Caso optarem pela visualização (ou envio), um alerta seria enviado aos pais. A crítica dos usuários se baseia nos precedentes de constrangimento após as notificações, criando medo e trauma nas crianças após visualização do conteúdo.

A própria instituição argumenta que não utiliza o recurso para invadir a privacidade, que seus algoritmos são precisos na detecção e que avaliam apenas as imagens, sem olhar as conversas. Ainda assim, o recurso está fora da atualização, mas permanece previsto para os próximos meses.

Apple utilizaria base de dados de proteção às crianças dos EUA

Além do chat de mensagens, o mecanismo da Apple irá escanear material de abuso infantil através de comparações de hashes, ou padrões de imagem. Ao encontrar uma imagem suspeita, o sistema converteria as formas em padrões básicos e a compararia com um banco de dados oferecido pelo National Center for Missing and Exploited Children (NCMEC) — a instituição de proteção às crianças nos Estados Unidos.

O escaneamento seria feito pelo próprio sistema no dispositivo, e não por um algoritmo varrendo o iCloud. Assim que a plataforma detectasse conteúdo abusivo, um alerta ao NCMEC seria enviado. Ainda não está claro como as políticas se aplicariam em países como o Brasil.

Via Cnet

Imagem: HTWE/Shutterstock

Leia mais:

Já assistiu aos nossos vídeos no YouTube? Inscreva-se no nosso canal!

Gabriel D. Lourenço é redator(a) no Olhar Digital

André Lucena
Ex-editor(a)

Pai de três filhos, André Lucena é o Editor-Chefe do Olhar Digital. Formado em Jornalismo e Pós-Graduado em Jornalismo Esportivo e Negócios do Esporte, ele adora jogar futebol nas horas vagas.