cibercrime, hacker

Algoritmo do YouTube sugeria vídeos de crianças após usuário ter assistido a conteúdos adultos

Redação Olhar Digital 03/06/2019 16h30
Compartilhe com seus seguidores
A A A

Segundo reportagem do The New York Times, "em muitos casos" o algoritmo da plataforma recomendou vídeos principalmente de meninas depois que os usuários assistiam conteúdo sensualizados

O YouTube tem um problema sério com vídeos relacionados a crianças. Apesar dos esforços feitos para combater o uso da plataforma por pedófilos, outra frente de atuação preocupante parece ter sido descoberta.


Segundo matéria feita pelo The New York Times, uma pesquisa recente descobriu que o sistema sugere, nas recomendações, vídeos de meninas menores de idade depois que o usuário assiste a conteúdos adultos na plataforma. Isso aconteceu "em muitos casos", mas não em todos, de acordo com o jornal americano.

A questão veio à tona após o impressionante número de visualizações de um vídeo que mostra duas meninas, de cerca de 10 anos, brincando em uma piscina no quintal de sua casa. "O vídeo é inocente, não é grande coisa", disse a mãe de uma das menores.

Contudo, a cena, carregada por sua própria filha e um amigo que aparece ao lado dela, logo acumulou milhares de visitas chegando em pouco tempo a 400 mil visualizações — um número muito alto para um vídeo sem importância.

Os investigadores responsáveis pelos resultados do The New York Times, descobriram que o sistema automatizado de recomendação do YouTube começou a mostrar o vídeo para os usuários que viram "outros vídeos de crianças pré-adolescentes e parcialmente vestidas". Em outros momentos, como dissemos no início, eles asseguram que o algoritmo se referia a vídeos semelhantes aos das garotas depois que os usuários tinham visto conteúdo com cunho sexual.

Quando o Times advertiu a empresa que seu sistema estava recomendando vídeos de família para indivíduos aparentemente motivados por interesse sexual em menores, o "YouTube removeu vários, mas deixou muitos outros, incluindo alguns aparentemente enviados por contas falsas". Algo foi feito em relação ao algoritmo, já que a plataforma parou de recomendar alguns vídeos, como explica o estudo.

O YouTube mudou o algoritmo depois de ser notificado, embora tivesse alegado que a alteração de sua operação foi feita devido a "ajustes de rotina", e não a uma mudança na política especificamente.

A companhia divulgou essa informação no comunicado que falava sobre atualizações de "esforços para proteger menores e famílias". Ele apresenta algumas das mudanças realizadas no serviço recentemente e uma referência ao que veio à tona nas últimas horas:

"A maioria dos vídeos com crianças no YouTube, incluindo os mencionados nos relatórios de notícias recentes, não viola as nossas políticas e é publicada de forma inocente: um criador de conteúdo familiar que fornece aconselhamento educacional ou um dos pais compartilhando um momento de orgulho ou felicidade. Porém, tratando-se de crianças, adotamos uma abordagem cautelosa extra para a aplicação da lei e estamos sempre aprimorando nossas proteções".

Esta investigação vem meses depois da descoberta um grupo de pedófilos que usava o YouTube para consumir de maneira perturbadora vídeos, inocentes a priori, de menores. As ações da companhia, no entanto, ficaram patentes nos comentários desses vídeos — o serviço decidiu fechar as seções de comentários de muitos desses conteúdos.

Youtube adulto pedofilia adultos
Compartilhe com seus seguidores
Você faz compras Online? Não deixe de conferir a nova extensão do Olhar Digital que garante o preço mais baixo e ainda oferece testadores automáticos de cupons. Clique aqui para instalar.

Recomendados pra você