A adolescente Molly Russell, de 14 anos, cometeu suicídio em novembro de 2017. Ao analisar seu perfil no Instagram, descobriu-se que das 16,3 mil publicações salvas pela jovem nos seis meses anteriores a sua morte, cerca de 2,1 mil estavam ligadas à depressão e suicídio.  

Nesta segunda-feira (27), a chefe de saúde e bem-estar da Meta (empresa dona do Instagram), Elizabeth Lagone, pediu desculpas pela adolescente ter visto qualquer conteúdo que violasse as políticas da empresa. “Lamentamos por isso”, disse Lagone no tribunal do North London Coroner, que investiga as circunstâncias da morte de Russel.  

publicidade

Apesar do pedido de desculpas, Lagone não condenou todo conteúdo sobre depressão e suicídio presente no Instagram. A executiva disse que esse tipo de publicação é “de modo geral admissível”, pois, muitas pessoas contam suas experiências com problemas de saúde mental e, consequentemente, podem estar pedindo ajuda.  

Leia também!

publicidade

De acordo com Lagone, a empresa ouviu diversos especialistas que disseram que não se deve remover todo conteúdo ligado à depressão e automutilação “por causa do estigma e vergonha que pode causar às pessoas que estão lutando”. 

“Por que diabos você está fazendo isso? . . . você criou uma plataforma que permite que as pessoas coloquem conteúdo potencialmente nocivo nela [e] você está convidando crianças para a plataforma. Você não sabe onde está o equilíbrio do risco”, afirmou o advogado da família Russell, Oliver Sanders.  

publicidade

Ian Russell, pai de Molly, relatou que acredita que os algoritmos do Instagram empurraram sua filha para postagens gráficas e perturbadoras, o que acabou contribuindo para o seu suicídio.  

Mudança de política sobre pots nocivos

Vale lembrar que em 2017, quando a jovem cometeu suicídio, o Instagram permitia postagens gráficas referenciando suicídio e automutilação, criando um espaço para que os usuários buscassem apoio. No entanto, em 2019 a rede social atualizou sua política e baniu qualquer tipo de imagem gráfica.  

publicidade
Pessoa acessa o Instagram
Imagem: wichayada suwanachun/Shutterstock

Na época, a plataforma afirmou que “coletivamente, foi aconselhado [por especialistas em saúde mental] que imagens gráficas de automutilação – mesmo quando é alguém admitindo suas lutas – tem o potencial de promover involuntariamente a automutilação”. 

“Nunca permitimos conteúdo que promova ou glorifique suicídio e automutilação, desde 2019, atualizamos nossas políticas, implantamos novas tecnologias para remover mais conteúdo violador, mostramos mais recursos especializados quando alguém pesquisa ou publica conteúdo relacionado ao suicídio ou automutilação, e introduziu controles projetados para limitar os tipos de conteúdo que os adolescentes veem”, disse a executiva da Meta.  

A saúde mental de adolescentes tem se tornado uma grande preocupação da Meta, empresa dona do Facebook, Instagram e WhatsApp, após denúncias da ex-funcionária Frances Haugen, que apontou que a empresa tinha noção de quanto suas redes sociais poderiam ser tóxicas para jovens e adolescentes.  

Além disso, as denúncias de Haugen, que foram feitas ao jornal The Wall Street Journal em setembro do ano passado, apontam que os jovens poderiam ser direcionados para conteúdos que encorajam a automutilação. 

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!