Meta terá obstáculos para implementar “notas da comunidade”

Zuckerberg quer implementar o recurso nas redes sociais da Meta, mas as falhas desse sistema podem piorar a segurança destas plataformas
Por Leandro Costa Criscuolo, editado por Ana Luiza Figueiredo 29/01/2025 15h37, atualizada em 31/01/2025 20h48
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Mark Zuckerberg anunciou que a Meta reduziria seus esforços de moderação de conteúdo nos EUA, eliminando a verificação de fatos profissional em favor de um modelo mais “democrático”, inspirado no sistema de “Notas da Comunidade” do X (antigo Twitter).

Essa mudança gerou preocupações, pois ela pode aumentar a propagação de desinformação e discursos de ódio.

A moderação voluntária, embora tenha sido eficaz no início da internet, pode ser ineficaz em plataformas de grande escala como as da Meta, onde o volume e a velocidade do conteúdo dificultam a moderação eficiente. Uma análise do MIT Technology Review explica as dificuldades de implementar este modelo.

O recurso, lançado no X em 2021, permite que usuários adicionem contexto às postagens. Embora a ideia tenha resultados mistos — com algumas notas sendo precisas e úteis, e outras que podem ser influenciadas por vieses ideológicos —, o sistema tem falhas.

Leia mais:

O modelo depende de colaboração entre os usuários e da validação das informações, o que pode dificultar a identificação de desinformação em tópicos mais complexos.

Redes sociais da Meta
Moderação de conteúdo especializada está dando lugar a um sistema alimentado por voluntários (Imagem: Sergei Elagin/Shutterstock)

Uma moderação sem apoio da plataforma ficará comprometida

  • A moderação eficaz exige que especialistas tenham acesso às postagens e o processo seja bem apoiado.
  • A moderação voluntária não deve ser vista como uma solução isolada, pois os voluntários enfrentam desafios como exposição a conteúdo perturbador e assédio.
  • No caso do Meta, não está claro como os moderadores voluntários serão apoiados ou protegidos ao lidar com conteúdo nocivo.

Além disso, a moderação de conteúdo não se limita à verificação de fatos, mas inclui a identificação de outros tipos de conteúdo prejudicial, como discurso de ódio. Segundo a análise, a decisão de Zuckerberg enfraquece as políticas da Meta sobre conteúdo tóxico, o que pode agravar o ambiente online.

Se a Meta quiser realmente proteger seus usuários, precisará garantir que seu sistema de moderação seja robusto e bem apoiado, e não depender apenas de voluntários para resolver questões complexas de conteúdo.

A mudança também reflete uma decisão política para agradar a uma nova administração, mas, ao enfraquecer a moderação centralizada e depender de verificações voluntárias, pode piorar a experiência dos usuários e aumentar os riscos de abuso e desinformação nas plataformas.

Depender da verificação de voluntários pode fazer com que a desinformação não seja barrada em redes como Facebook ou Instagram (Imagem: Thaspol Sangsee/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Ana Luiza Figueiredo é repórter do Olhar Digital. Formada em Jornalismo pela Universidade Federal de Uberlândia (UFU), foi Roteirista na Blues Content, criando conteúdos para TV e internet.