Quem decide o que aparece no seu feed? Spoiler: não é você

Seu feed não é neutro; entenda como algoritmos decidem o que você vê — e por que isso deveria te preocupar
Por Rafael Magalhães, editado por Rodrigo Mozelli 20/07/2025 04h30
Algoritmo redes sociais.
Por trás de cada post, um algoritmo decide o que vale sua atenção (Imagem: Rafael Magalhães/ChatGPT)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A recente decisão do Supremo Tribunal Federal (STF) que permite responsabilizar redes sociais por postagens de terceiros reacendeu o alerta sobre o funcionamento dos algoritmos.

Esses sistemas definem o que aparece no feed de cada usuário com base em padrões de comportamento digital, sem transparência ou controle público.

Enquanto impulsionam o lucro das plataformas, também favorecem a circulação de desinformação e dificultam o acesso a conteúdo confiável.

Ilustração de uma cabeça robótica
Especialista aponta que a ausência de transparência nos sistemas de recomendação abre espaço para a circulação de desinformação em escala (Imagem: Ana Luiza Figueiredo via DALL-E/Olhar Digital)

O funcionamento dos algoritmos é baseado em sistemas de recomendação que agrupam usuários por padrões de consumo.

A partir dessa segmentação, as plataformas selecionam e exibem conteúdos que têm maior probabilidade de gerar engajamento. Essa lógica, conhecida como curadoria algorítmica, não considera critérios como relevância jornalística ou diversidade de fontes, mas, sim, o potencial de retenção e interação dos usuários.

Esse modelo favorece conteúdos sensacionalistas, reforça bolhas de opinião e amplia a visibilidade de publicações de baixa qualidade.

Ao mesmo tempo, concentra nas mãos das plataformas o controle sobre distribuição, métricas e remuneração de criadores. Sem mecanismos de transparência, os critérios adotados por esses sistemas seguem desconhecidos do público e dificultam o debate sobre regulação e responsabilidade digital.

Curadoria invisível e controle de conteúdo

Quem faz o alerta é Rose Marie Santini, em artigo publicado no The Conversation. Professora da Escola de Comunicação da UFRJ e diretora do NetLab, ela afirma que “os sistemas de recomendação não preveem o gosto individual, mas o da comunidade de gosto à qual o usuário pertence”.

Segundo Santini, “o sistema associa o indivíduo a um grupo com padrões de consumo parecidos e, com base nisso, sugere conteúdos”.

algoritmo
Segundo Santini, big techs lucram com desinformação na era dos algoritmos (Imagem: Ole.CNX/Shutterstock)

A pesquisadora explica que essa lógica teve origem nos sistemas de recomendação de música, desenvolvidos ainda na virada do século. “Foi o primeiro tipo de conteúdo a sofrer os impactos da internet e atrair esforços de inovação tecnológica”, diz. “Isso muda totalmente a lógica da curadoria. Todo conteúdo chega em algum usuário, de alguma maneira”, observa.

Para Santini, esse modelo concentra poder nas mãos das plataformas digitais e gera prejuízo para quem produz conteúdo. “O criador não sabe quantas vezes sua música foi tocada e não sabe os critérios utilizados para a recomendação”, afirma.

Segundo ela, as plataformas definem padrões de consumo e métricas, estimulando artistas e produtores a fornecer conteúdos gratuitamente em troca de visibilidade. “Elas concentram tudo: dados, distribuição, publicidade”, conclui.

Leia mais:

Desinformação e urgência de regulação

  • A ausência de transparência nos sistemas de recomendação abre espaço para a circulação de desinformação em escala;
  • Segundo Santini, esse conteúdo é impulsionado por interesses políticos, econômicos e até criminosos, aproveitando o alcance massivo e a falta de fiscalização nas redes;
  • Grupos organizados usam estratégias de propaganda computacional para manipular o debate público, especialmente em períodos eleitorais;
  • Bots e perfis falsos fabricam engajamento e distorcem a percepção sobre o que é popular ou relevante, dificultando o acesso a informações confiáveis;
  • Para a pesquisadora, enfrentar esse cenário exige ação em três frentes: cultural, política e econômica. “É preciso regulamentar as plataformas, garantir transparência nos algoritmos e responsabilizar quem lucra com a desinformação”, finaliza.

algoritmo
É preciso cobrar transparência das grandes plataformas, segundo pesquisadora (Imagem: Anggalih Prasetya)
Redator(a)

Pai, redator, e apaixonado por viagens e fotografia.

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.