O Instagram divulgou nesta segunda-feira (8) um post em seu blog comprometendo-se a lutar contra o cyberbullying na plataforma. Dois recursos foram anunciados para auxiliar o usuário nesse sentido. Um deles desencoraja quem está prestes a fazer comentários negativos e o outro apresenta alternativas para a potencial vítima de cyberbullying. Mas será que isso é suficiente?

Reprodução

O primeiro recurso, que usa inteligência artificial (IA), notifica usuários quando identifica que seus comentários são ofensivos. Segundo o Instagram, “essa intervenção dá às pessoas a chance de refletir e desfazer os comentários e impede que o destinatário receba a notificação da crítica. Desde os primeiros testes com o recurso, descobrimos que eles incentiva alguns a desfazerem seus comentários e compartilharem algo menos doloroso, uma vez que tenham a chance de refletir”.

Reprodução

publicidade

Já a ferramenta para a vítima de cyberbullying foi batizada de “Restringir”. Quando alguém é adicionado, seus comentários só são visíveis para ele próprio — o destinatário não os vê. Além disso, ele pode escolher se quer que outros usuários vejam esses comentários ou não. Para tal, deve aprovar ou não a interação. Os restringidos também não podem ver quando quem os limitou está online no Instagram ou quando tiver lido uma mensagem privada.

Estima-se que 80% dos adolescentes na faixa etária em que o cyberbullying é mais comum estejam no Instagram. A rede oferece um ambiente ideal para a prática: audiência, anonimato, ênfase em aparências e canais variados (de feeds públicos a conversas privadas individuais ou em grupo). Os próprios executivos do Instagram reconhecem que, ao tentar atrair mais usuários e atenção para a plataforma, cada novo recurso traz mais oportunidades de abuso. “Os adolescentes são excepcionalmente criativos”, diz Karina Newton, diretora de política pública do Instagram.

Reprodução

As mudanças atuais vieram com Adam Mosseri. Depois que os fundadores do Instagram desligaram-se da rede social, no ano passado — supostamente em meio a tensões com o Facebook —, Mosseri assumiu o cargo de Head da plataforma. O executivo pretende definir uma nova era para o Instagram e diz que o bem-estar dos usuários é sua maior prioridade. Por isso, o combate ao cyberbullying dá o tom da agenda. Mosseri tem engenheiros e designers dedicados à causa: com base em extensa pesquisa, a equipe lança novos recursos e altera protocolos da plataforma.

Para tornar o Instagram mais agradável, seus fundadores, Kevin Systrom e Mike Krieger, passaram a usar o DeepText, uma ferramenta de IA pegaram do Facebook. Projetada para entender e interpretar a linguagem usada na plataforma, ela foi adotada pelos engenheiros do Instagram em 2016 para procurar spam. No ano seguinte, foi empregada para encontrar e bloquear comentários ofensivos, como insultos raciais. No ano passado, passou a ser usado para encontrar bullying em comentários. 

Uma semana depois de Mosseri assumir o cargo, em outubro de 2018, o Instagram anunciou que não usaria apenas IA para procurar cyberbullying em comentários. Um novo passo foi dado: máquinas passariam a identificar ataques em fotos, ou seja, a IA também analisaria as publicações — e não apenas os comentários, como ocorria até então.

Reprodução

Desafio durante o treinamento

Quando os engenheiros querem “ensinar” uma máquina a fazer uma tarefa, criam um conjunto de treinamento — em termos leigos, uma coleção de material que ajuda o equipamento a entender as regras da nova função. O processo tem início com moderadores humanos que selecionam centenas de milhares de conteúdos e decidem se contêm ou não cyberbullying. 

Isso serve de exemplo para as máquinas, que, a partir de então, baseiam sua atuação neles. Esses padrões, entretanto, não contêm tudo o que um moderador já encontrou ou pode encontrar, mas a IA aprende com amostras adicionais. O objetivo é que, com a ajuda de engenheiros, ela fique melhor com o passar do tempo.

Hoje, o Instagram tem três classificadores de cyberbullying separados que examinam conteúdo em tempo real: um é treinado para analisar texto, outro é usado em fotos e há um específico para vídeo. Segundo o engenheiro-chefe, Yoav Shapira, eles ainda estão em fase inicial, o que significa que muitos casos de cyberbullying e ofensas passam despercebidos.

Isso é extremamente desafiador, especialmente quando comparado ao treinamento de uma máquina para buscar nudez, por exemplo. Afinal, é mais fácil reconhecer quando alguém está sem roupa em uma foto do que a ampla gama de comportamentos que podem ser considerados intimidação. Os estudos sobre cyberbullying variam enormemente nas conclusões sobre quantos sofrem com ele (variam de 5% a 72%) — isso porque ninguém concorda exatamente sobre o que é cyberbullying. 

“O que torna o assédio moral tão difícil de lidar é que a definição é tão diferente para os indivíduos”, diz Karina, diretora de política pública do Instagram. Além disso, os engenheiros precisam ter noção clara do que se qualifica e do que não funciona para construir um conjunto sólido de treinamento. A missão de Mosseri e sua equipe é justamente mudar isso.

Via: Instagram e Time