Siga o Olhar Digital no Google Discover
Após mudanças nas políticas de moderação de conteúdo do Facebook e Instagram, a Meta pode enfrentar um aumento significativo de discurso de ódio e conteúdos prejudiciais.
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
De acordo com dados do Center for Countering Digital Hate (CCDH), estima-se que mais 277 milhões de casos de discurso de ódio possam surgir a cada ano devido a uma mudança na forma de identificar esses conteúdos, agora dependente de denúncias de usuários em vez de sistemas automatizados.
Até então, a Meta usava medidas proativas que bloqueavam 97% dos conteúdos nocivos, mas, com a mudança, a empresa planeja contar mais com relatórios de usuários, o que pode ser ineficaz, segundo o CCDH.
Leia mais:
- Meta encerra programa de diversidade após acabar com checagem de fatos nas redes sociais
- 5 filmes sobre o perigo das Fake News
- Como evitar fake news? Veja 8 dicas para não cair em notícias falsas

Regras para discursos de ódio não estão claras
- A Meta justifica a alteração dizendo que seus sistemas automatizados cometeram erros, especialmente em conteúdos menos graves.
- Contudo, especialistas alertam que isso pode abrir espaço para mais abusos e discursos de ódio nas plataformas.
- A empresa também não especificou como aplicará suas regras em relação a conteúdos mais sensíveis, como discurso de ódio e assédio.
A Meta discorda das estimativas do CCDH, chamando sua metodologia de falha, e a empresa se recusa a fornecer previsões sobre o impacto das novas políticas.
Além disso, a mudança levanta preocupações sobre a eficácia do sistema de denúncias e sobre a responsabilidade da Meta em garantir um ambiente seguro para seus usuários.
Defensores de grupos marginalizados, como o GLAAD, criticam a decisão, afirmando que ela representa um retrocesso nas melhores práticas de moderação e que a plataforma agora deixará os usuários expostos a mais conteúdo prejudicial.
