A Apple publicou uma atualização da nota sobre as mecânicas da 15ª versão de seu sistema operacional iOS, informando que o plano de escanear aparelhos automaticamente em busca de material de abuso infantil está em pausa. O sistema, que detectaria conteúdo de pedofilia presente no iCloud automaticamente, teve sua implementação adiada após riscos de invasão de privacidade.

“Baseada no retorno de clientes, grupos sociais, pesquisadores e outros, decidimos levar mais tempo nos próximos meses para coletar opiniões e aplicar melhorias antes de implementar este recurso criticamente importante de proteção infantil.”

publicidade

A controvérsia se deu após o uso de uma das mecânicas que informaria a crianças que estão recebendo ou enviando conteúdo sexualmente explícito pelo Messages. A Apple utilizaria algoritmos para detectar se os materiais são, de fato, impróprios, e borraria o conteúdo antes, perguntando se queriam ver.

Caso optarem pela visualização (ou envio), um alerta seria enviado aos pais. A crítica dos usuários se baseia nos precedentes de constrangimento após as notificações, criando medo e trauma nas crianças após visualização do conteúdo.

publicidade

A própria instituição argumenta que não utiliza o recurso para invadir a privacidade, que seus algoritmos são precisos na detecção e que avaliam apenas as imagens, sem olhar as conversas. Ainda assim, o recurso está fora da atualização, mas permanece previsto para os próximos meses.

Apple utilizaria base de dados de proteção às crianças dos EUA

Além do chat de mensagens, o mecanismo da Apple irá escanear material de abuso infantil através de comparações de hashes, ou padrões de imagem. Ao encontrar uma imagem suspeita, o sistema converteria as formas em padrões básicos e a compararia com um banco de dados oferecido pelo National Center for Missing and Exploited Children (NCMEC) — a instituição de proteção às crianças nos Estados Unidos.

publicidade

O escaneamento seria feito pelo próprio sistema no dispositivo, e não por um algoritmo varrendo o iCloud. Assim que a plataforma detectasse conteúdo abusivo, um alerta ao NCMEC seria enviado. Ainda não está claro como as políticas se aplicariam em países como o Brasil.

Via Cnet

publicidade

Imagem: HTWE/Shutterstock

Leia mais:

Já assistiu aos nossos vídeos no YouTube? Inscreva-se no nosso canal!