(Imagem: Luiza Kamalova/Shutterstock)
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Um estudo recente apontou que as ferramentas de segurança do Instagram, voltadas para adolescentes, falham em proteger os jovens de conteúdos nocivos. Segundo a pesquisa, perfis de teste criados como se fossem de menores de idade continuaram a receber recomendações de postagens sobre suicídio, automutilação e distúrbios alimentares, além de incentivo a comportamentos sexualizados.
Os resultados reacendem o debate sobre o papel das big techs na proteção de crianças e adolescentes. A Meta, dona do Instagram, nega as conclusões do estudo e afirma que os recursos funcionam para reduzir riscos.
No entanto, especialistas e entidades de proteção à infância dizem que as falhas reforçam a necessidade de leis mais duras para responsabilizar as plataformas digitais.
A pesquisa internacional que revelou brechas no Instagram se soma a um cenário de pressão crescente sobre as redes sociais.
De um lado, especialistas e organizações de proteção à infância alertam para riscos ligados à exposição de jovens a conteúdos nocivos. De outro, governos avançam em legislações que impõem novas obrigações às plataformas, numa tentativa de frear práticas vistas como nocivas ao bem-estar de crianças e adolescentes.
O estudo, conduzido pelo centro Cybersecurity for Democracy em parceria com grupos de proteção infantil como a Molly Rose Foundation, analisou 47 ferramentas de segurança para adolescentes no Instagram.
O resultado foi preocupante: 30 dessas ferramentas foram consideradas ineficazes ou deixaram de existir, outras nove apresentaram limitações e apenas oito funcionaram de forma adequada. Isso significa que jovens ainda conseguem acessar conteúdos que a própria plataforma afirma banir.
Entre os problemas identificados estavam postagens descrevendo atos sexuais degradantes, sugestões automáticas de buscas relacionadas a suicídio, automutilação e transtornos alimentares.
Além disso, o estudo apontou interações nas quais adolescentes eram incentivados a publicar conteúdos que atraíam comentários sexualizados de adultos. Os pesquisadores registraram casos de crianças que aparentavam ter menos de 13 anos pedindo avaliações de sua aparência em vídeos, por exemplo.
Para especialistas, esses achados revelam uma falha estrutural na forma como o Instagram lida com a segurança de jovens. Andy Burrows, da Molly Rose Foundation, disse à BBC que os problemas apontam para uma “cultura corporativa que coloca engajamento e lucro acima da proteção”.
A fundação foi criada após a morte de Molly Russell, adolescente britânica de 14 anos que se suicidou em 2017 após contato frequente com conteúdos nocivos em redes sociais.
A Meta rejeitou as conclusões do estudo e afirmou que o relatório distorce o funcionamento das ferramentas.
Segundo a empresa, os recursos de segurança para adolescentes garantem proteções automáticas, reduzem a exposição a conteúdo sensível e oferecem controles parentais mais claros.
A companhia também argumenta que muitos recursos apontados como extintos foram, na verdade, incorporados a outras funcionalidades.
Um porta-voz disse à BBC que adolescentes sob essas proteções passaram a ter menos contato indesejado, menos tempo de uso noturno e menos exposição a publicações de risco.
A empresa acrescentou que seguirá aprimorando seus sistemas e aceita críticas construtivas, mas classificou o relatório como impreciso e “não construtivo”.
No Reino Unido, o debate sobre segurança online ganhou força com o Online Safety Act, que obriga plataformas a proteger jovens de conteúdos que promovam automutilação e suicídio.
O governo britânico afirma que as empresas “não podem mais olhar para o outro lado” e precisam assumir responsabilidade pelo impacto que suas redes têm sobre crianças e adolescentes.
Leia mais:
No Brasil, a pressão por regras mais rígidas resultou na sanção de uma lei que combate a chamada “adultização” de crianças nas redes sociais.
O texto – sancionado pelo presidente, Luiz Inácio Lula da Silva (PT), em 17 de setembro – determina que contas de usuários com até 16 anos devem estar obrigatoriamente vinculadas a um responsável legal. Também exige mecanismos confiáveis de verificação de idade, proibindo que a checagem seja feita apenas por autodeclaração.
As plataformas passam ainda a ter a obrigação de oferecer ferramentas de supervisão parental, limitar o tempo de uso e adotar políticas contra assédio e intimidação online.
Em caso de descumprimento, empresas podem ser multadas em valores que variam de R$ 10 por usuário cadastrado até R$ 50 milhões, além de correrem o risco de suspensão temporária ou definitiva de suas atividades.
A nova lei também fortalece a atuação da Autoridade Nacional de Proteção de Dados (ANPD), transformada em agência reguladora para fiscalizar e aplicar sanções.
A medida foi impulsionada por um vídeo do youtuber conhecido como Felca, cuja vitalização reforçou o debate sobre exposição precoce de crianças no ambiente digital. E aumentou a pressão política por uma resposta legislativa.
(Esta matéria usou informações dos sites BBC e G1.)
Esta post foi modificado pela última vez em 25 de setembro de 2025 10:11