Solução de IA é aposta de empresas contra o abuso sexual infantil online

Denominada Safer, ferramenta identifica o conteúdo abusivo com mais de 99% de precisão; Flickr, Slack e Vimeo já usam a solução

Fabiana Rolfini 31/07/2020 15h58
abuso infantil
A A A

Materiais de abuso sexual infantil cresceram exponencialmente na web nos últimos anos. Para se ter ideia, em 2019, houve 69,1 milhões de arquivos relatados ao Centro Nacional para Crianças Desaparecidas e Exploradas nos EUA - o triplo dos níveis de 2017 e um aumento de 15.000% nos últimos 15 anos.


Agora uma nova ferramenta baseada em inteligência artificial (IA) é a mais recente aposta de empresas para ajudar a combater este tipo de crime. Chamada Safer, a solução tem o intuito de conter o fluxo de conteúdo abusivo na web, além de encontrar as vítimas e identificar os autores dos abusos.

Segundo a Thorn, organização sem fins lucrativos por trás da Safer, a ferramenta identifica o conteúdo abusivo com mais de 99% de precisão em uma plataforma pesquisando impressões digitais chamadas hashes.

Reprodução

IA ajuda empresas a identificar conteúdo de abuso sexual infantil online. Foto: iStock

Ao serem detectadas, estas hashes comparadas a um conjunto de dados de milhões de imagens e vídeos de material abusivo. Se o conteúdo não tiver sido relatado anteriormente, os algoritmos treinados determinam se é provável que seja um material de abuso infantil (CSAM, na sigla em inglês). 

Em seguida, o conteúdo é colocado na fila para revisão pelas equipes de moderação da plataforma e reportado ao Centro Nacional de Crianças Desaparecidas e Exploradas, que adiciona o conteúdo ao seu banco de dados.

Flickr, Slack e Vimeo já usam a solução

A novidade foi criada para empresas que não possuem seus próprios sistemas de filtragem de conteúdo. Entre os primeiros clientes da Safer está o serviço de compartilhamento de fotos Flickr. 

A empresa recentemente usou a solução para detectar uma única imagem de abuso em sua plataforma. Uma investigação policial que se seguiu levou à identificação e recuperação de 21 crianças, com idades entre 18 meses e 14 anos. O autor está agora na prisão federal.

No total, já foram retirados da internet 100 mil arquivos CSAM durante a fase beta, para clientes como Imgur, Slack, Medium e Vimeo.

A ferramenta está disponível por enquanto para todas as empresas que operam nos EUA. No próximo ano, o produto deve ser estendido para companhias em outros países. O objetivo final da organização é eliminar este tipo de material da internet aberta.

 

Via: The Next Web


Flickr Web Inteligência Artificial Online conteúdo Slack abuso sexual infantil
Você faz compras Online? Não deixe de conferir a nova extensão do Olhar Digital que garante o preço mais baixo e ainda oferece testadores automáticos de cupons. Clique aqui para instalar.

Recomendados pra você