Uma investigação chocante da BBC revelou que evidências de possíveis abusos de direitos humanos estão sendo permanentemente apagadas após serem excluídas por ferramentas de inteligência artificial (IA) de empresas de tecnologia.

  • Grandes plataformas, como Meta (Facebook e Instagram) e Google (YouTube), estão removendo vídeos com conteúdo violento e gráfico, muitas vezes utilizando IA para essa tarefa.
  • No entanto, essas filmagens, quando excluídas sem serem devidamente arquivadas, poderiam ser cruciais para processar criminosos de guerra.
  • As empresas de tecnologia afirmam que estão tentando equilibrar a necessidade de manter provas contra criminosos com a proteção dos usuários contra conteúdo nocivo.
  • Alan Rusbridger, membro do Conselho de Supervisão da Meta, afirma que a indústria tem sido “excessivamente cautelosa” em suas práticas de moderação.

Embora as plataformas declarem que podem manter material gráfico quando este é de interesse público, a BBC afirma que teve uma experiência contraditória ao tentar publicar imagens documentando ataques a civis na Ucrânia. As filmagens foram rapidamente excluídas, apesar de seu valor em expor a realidade dos eventos.

publicidade

Leia mais:

A IA tem sido eficaz na remoção de conteúdo nocivo e ilegal em larga escala. No entanto, quando se trata de moderar imagens violentas de guerras, as máquinas não conseguem identificar nuances que envolvem violações de direitos humanos.

publicidade

Grupos de direitos humanos argumentam que é urgente que as empresas de mídia social impeçam o desaparecimento dessas informações vitais. “É compreensível que desenvolvam máquinas para derrubar conteúdos difíceis ou traumáticos”, afirma Rusbridger.

O Conselho de Supervisão da Meta, criado por Mark Zuckerberg e conhecido como um “tribunal supremo” independente para a empresa, está sendo questionado sobre como desenvolver máquinas, sejam humanas ou de inteligência artificial, para tomar decisões mais razoáveis.

publicidade

A Embaixadora dos EUA para Justiça Criminal Global, Beth Van Schaak, ressalta que não se nega o direito das empresas de tecnologia de monitorarem seu conteúdo, mas a preocupação surge quando essas informações desaparecem abruptamente.

ia
Os vídeos de Ihor Zakharenko documentando ataques russos a civis foram removidos das plataformas de mídia social. Imagem: BBC

Um ex-jornalista de viagens, Ihor Zakharenko, testemunhou esse problema na Ucrânia. Desde a invasão russa, ele tem documentado ataques a civis. No entanto, quando tentou publicar os vídeos nas redes sociais, eles foram prontamente retirados.

publicidade
  • A BBC fez o teste ao tentar publicar os vídeos de Ihor no Instagram e no YouTube usando contas fictícias.
  • O Instagram removeu três dos quatro vídeos em apenas um minuto.
  • O YouTube, inicialmente, aplicou restrições de idade a três vídeos, mas os removeu completamente após 10 minutos.
  • Apelos para restaurar os vídeos foram rejeitados.
  • As empresas afirmam que, de acordo com suas exceções para imagens gráficas de guerra de interesse público, o conteúdo normalmente removido devido à violência gráfica pode ser mantido online com restrição de visualização a adultos.
  • No entanto, a experiência da BBC sugere que essa exceção não está sendo aplicada.

Para evitar a perda dessas provas cruciais, organizações de direitos humanos, como a Mnemonic, desenvolveram ferramentas para baixar e salvar automaticamente evidências de violações de direitos humanos nas mídias sociais. No entanto, elas não conseguem abranger todas as áreas de conflito no mundo.

Ativistas argumentam que é necessário estabelecer um sistema formal para coletar e armazenar com segurança o conteúdo excluído, incluindo metadados para verificar a autenticidade das evidências. É essencial que as plataformas de mídia social estabeleçam acordos com mecanismos de responsabilização em todo o mundo, a fim de preservar essas informações para possíveis futuras ações legais.

Com informações da BBC.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!