A Meta Platforms vem enfrentando meses de desafios para resolver problemas de segurança infantil no Instagram e Facebook. Recentemente, foi revelado que seus sistemas estão facilitando e até promovendo uma vasta rede de contas de pedófilos.

A empresa estabeleceu uma força-tarefa de segurança infantil em junho, após investigações do The Wall Street Journal e de pesquisadores da Universidade Stanford e da Universidade de Massachusetts Amherst mostrarem que os algoritmos do Instagram conectavam contas dedicadas à criação, compra e troca de conteúdo sexual envolvendo menores de idade.

Leia também:

Apesar dos esforços, testes realizados cinco meses depois pela própria equipe do WSJ e pelo Centro Canadense de Proteção à Criança indicam que os sistemas de recomendação da Meta ainda promovem tal conteúdo. A empresa removeu hashtags relacionadas à pedofilia, porém, novas variantes continuam sendo recomendadas por seus sistemas.

publicidade

Além do Instagram, o problema se estende ao Facebook, envolvendo grupos grandes que focam na sexualização de crianças. O Facebook, com mais de três bilhões de usuários mensais, promove sua função de grupos como uma forma de conectar usuários com interesses similares. Um porta-voz da Meta admitiu ao WSJ que, apesar de esforços significativos, como a desativação de milhares de contas e a ocultação de 190.000 grupos, o progresso não foi tão rápido quanto esperado.

Como a Meta tem combatido a pedofilia em suas redes

A Meta também tem investido em outras maneiras de encontrar e remover contas que violam suas políticas de exploração infantil e melhorou a tecnologia para identificar nudez adulta e atividades sexuais em vídeos ao vivo. Entretanto, a empresa enfrenta críticas por sua relutância em limitar significativamente os sistemas que apresentam conteúdo personalizado, fundamentais para o sucesso da plataforma.

A questão se aprofunda com o fato de que a Meta, nos últimos anos, voltou sua atenção e recursos para a inteligência artificial, realidade virtual e o metaverso, resultando em cortes de custos e demissões de centenas de funcionários de segurança, incluindo especialistas em segurança infantil.

Apesar das dificuldades, a Meta continua a investir em trabalho de segurança infantil, incluindo a designação de equipes específicas para encontrar e remover material de exploração infantil na plataforma. A empresa tem planos de restringir ainda mais a capacidade de contas pedófilas de se conectarem em suas plataformas e de ajudar a direcionar os fóruns e conteúdos que atraem esses indivíduos.

Relatórios de pesquisa e testes continuam a destacar a gravidade do problema, com a constatação de que redes de contas do Instagram com milhões de seguidores ainda transmitem vídeos de abuso sexual infantil. A Meta afirma estar trabalhando ativamente para implementar mudanças identificadas pela força-tarefa e colaborar com outras plataformas no combate a esses crimes hediondos.