Depois de causar muita discussão, a Apple publicou um novo documento onde explica “equívocos” oriundos das recém-anunciadas medidas de monitoramento de conteúdo em iPhones e outros dispositivos da marca. Na última semana, a empresa de Cupertino informou que passaria a analisar o conteúdo de aparelhos, a fim de identificar materiais e usuários que se valessem de sua segurança para veicular materiais de pedofilia — aos quais a companhia se refere pela sigla “CSAM” (ou “Material de Abuso Sexual de Crianças”, na descrição traduzida).

Na ocasião do anúncio, a Apple recebeu diversos elogios sobre as medidas e seu objetivo primário. Entretanto, entidades como a Electronic Frontier Foundation (EFF) se mostraram “decepcionadas”, haja vista que a empresa liderada por Tim Cook é conhecida pelo seu imenso apreço pela privacidade, e essa iniciativa, por mais nobre que seja, poderia abrir caminho para o mau uso da tecnologia por hackers ou autoridades governamentais.

publicidade

Leia também

Imagem mostra uma mãe preocupada abraçando a sua filha. A mãe tem cabelos longos e pretos, enquanto a menina tem o cabelo amarrado em duas partes.

Assunto veio à tona após Apple anunciar monitoramento de iPhones e outros dispositivos para combater a distribuição de pornografia infantil.
O combate ao abuso infantil ganhou na Apple um aliado extremamente poderoso, mas a forma como a empresa quer atacar o problema gerou debate vindo de especialistas em segurança e privacidade. Imagem: fizkes/Shutterstock

O novo documento da Apple toca em três pontos principais sobre a análise de conteúdo: alertas explícitos via iMessage para crianças inseridas em grupos familiares dentro do iCloud; detecção de fotos contendo CSAMs (via traços digitais únicos) e interações com a Siri e mecanismos de buscas relacionados a CSAMs, que resultarão em alertas e redirecionamento para links de ajuda profissional.

O ponto mais volátil, ao qual a Apple dedica boa parte do documento de seis páginas, é a questão da tecnologia aplicada: a detecção das imagens no iCloud e os alertas via iMessage não são a mesma coisa. Com a palavra, a própria Apple:

“A segurança da comunicação no Messages é feita para dar aos pais e filhos mais ferramentas para proteger as crianças de enviarem e receberem imagens sexualmente explícitas pelo app. Ela somente funciona em imagens enviadas ou recebidas pelo Messages de usuários de contas infantis criadas por meio do recurso de Compartilhamento Familiar. Essa função analisa as mensagens pelo próprio dispositivo, então não muda as certezas conferidas pela privacidade do Messages.

Quando uma conta infantil envia ou recebe mensagens sexualmente explícitas, essa imagem será desfocada e a criança será avisada, terá apresentados diversos recursos e será reassegurada de que está tudo bem se ela não quiser ver ou enviar a foto. Como uma medida de proteção adicional, crianças mais jovens podem também ser informadas que, para garantir a sua segurança, seus pais serão notificados se ela ver a imagem.

A segunda função, detecção de CSAMs pelo iCloud, é desenhada para manter esses materiais fora da nuvem sem entregar à Apple informações sobre quaisquer outras imagens que não aquelas que batam com registros conhecidos de CSAM. Tais imagens são de posse ilegal na maioria dos países, incluindo os Estados Unidos. Essa função só traz impacto para usuários que tenham escolhido o iCloud para armazenar suas fotos. Ela não afeta aqueles que não usem o iCloud. Também não há impacto para qualquer outra informação no dispositivo. E essa função não se aplica ao Messages”.

Em outros pontos, a Apple resume o discurso:

  • Mensagens enviadas ou recebidas por crianças nunca serão compartilhadas com autoridades policiais. O alerta será feito aos adultos responsáveis pela conta.
  • O Messages continuará com criptografia de ponta a ponta
  • Crianças com pais abusivos podem procurar, com segurança, por ajuda por meio do Messages caso utilizem apenas texto (não imagens)
  • Os pais só receberão alertas de visualização de CSAMs pelos seus filhos se as crianças tiverem 12 anos ou menos de idade. Um resultado positivo na base de dados de CSAMs será revisada manualmente antes de informado à polícia

Outro ponto levantado pela EFF foi o de que, ainda que hoje esse sistema seja desenhado para funcionar apenas contra a pornografia infantil, agências governamentais poderiam fornecer à Apple uma base de dados com outros materiais que elas considerem inadequados. Um exemplo foi o caso do “Rebelde Desconhecido” (também chamado de “Homem dos Tanques”) — uma imagem que mostra um homem carregando sacolas de compra posicionado, sozinho, em frente a vários tanques do Exército Chinês.

A imagem remete ao Massacre da Praça da Paz Celestial em 1989, um episódio de repressão militar do governo chinês que matou algo entre “várias centenas” e “milhares” de manifestantes (dependendo de qual fonte você consultar) que pediam por uma reforma política completa e menor repressão por parte das autoridades.

A foto do “Rebelde Desconhecido” é proibida de ser veiculada na China, e menções online à Praça Tian’anmen — o nome do local no idioma chinês — são monitoradas e reprimidas.

“Poderiam os governos forçar a Apple a adicionar imagens que não sejam CSAMs à lista? A Apple vai recusar qualquer demanda do tipo. A capacidade de detecção de CSAMs é construída exclusivamente para encontrar imagens de sexualidade explícita envolvendo crianças que estejam armazenadas no iCloud e que tenham sido catalogadas por experts do Centro Nacional para Crianças Desaparecidas e Exploradas [NCMEC, na sigla em inglês] e outros grupos de proteção infantil.

Nós já enfrentamos, no passado, exigências de entrega de mudanças encomendadas por governos para degradar e enfraquecer a privacidade e a segurança de usuários, e veementemente recusamos tais pedidos. Nós continuaremos a negá-los no futuro. Seremos muito claros: essa tecnologia é limitada exclusivamente a CSAMs armazenadas no iCloud e nós não vamos aceitar nenhum pedido de nenhum governo para expandí-la. Mais além, a Apple conduz revisões humanas antes de relatar esse material ao NCMEC. No caso do sistema marcar fotos que não são identificadas nas bases de dados CSAM, a conta em questão não será desligada e nenhum compartilhamento será feito com o NCMEC”.

Na prática, porém, a história pode ser outra: segundo diversos especialistas, essa “recusa” da Apple depende de ela ter o arcabouço jurídico que lhe permite negar tais pedidos. Novamente citando a China, a nação asiática conseguiu fazer com que a Apple removesse de sua loja aplicações de VPN, notícias e algumas redes sociais, bem como armazenar dados de usuários do iCloud em um parque de servidores dentro do país, sob jurisdição do governo local.

De uma forma resumida e prática, não há como a Apple garantir que seu monitoramento de iPhones e outros dispositivos obedeça aos mesmos parâmetros em todo lugar. Por essa razão, tal política estará inicialmente posicionada nos EUA, com a empresa de Cupertino ressaltando que sua implementação em outras nações será analisada “país por país”. A legalidade disso em outras regiões, porém, dependerá de análises mais aprofundadas.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!