Imagem: tadamichi/Shutterstock
Cada vez mais pessoas estão conectadas à internet no Brasil e no mundo. Os números podem ser comemorados, uma vez que representam um avanço na luta contra a chamada desigualdade digital, mas nem tudo é positivo.
A maior quantidade de internautas também significa mais pessoas acessando ferramentas como redes sociais. E isso faz com que cada vez mais informações pessoais sejam coletadas pelas plataformas e usadas pelas grandes empresas de tecnologia.
Leia mais
Em artigo publicado no portal The Conversation, Marcelo Soares, professor de jornalismo de dados da Universidade Estadual de Campinas (Unicamp), afirma que o efeito mais direto deste processo é que o conteúdo que aparece para o usuário nas redes sociais não é neutro. Isso significa mais postagens dos amigos com quem a pessoa interage mais, e não daqueles de quem tem mais saudade, por exemplo.
Se você abrir o YouTube num browser recém-instalado, sem se logar, vai ver o retrato do universo paralelo do que mais engaja no Brasil. Depois que a plataforma começa a lhe conhecer, personaliza tudo o que pode para segurar você lá dentro. Quanto mais tempo passa, mais dados ela coleta, mais sedutora fica e mais tempo você continua lá. Esse ciclo é vicioso. Essa lógica vem sendo comparada com à das máquinas caça-níqueis.
Marcelo Soares, professor da Unicamp
O especialista ainda destaca que, ao longo da última década, as redes sociais passaram a dificultar o acesso à informação confiável. Dessa forma, as pessoas foram perdendo o hábito de ir diretamente a quem produz notícias, esperando que as plataformas lhes entregassem o que fosse essencial. Além de prejudicar o jornalismo, isso reforçou o mito de que “se for importante vai chegar até mim”. O problema é que o que circula mais nas redes não é o essencial, mas o que for mais clicável e que causa emoções fortes.
Com a IA generativa, o cenário fica ainda mais complexo. Já tem gente usando esses modelos para produzir conteúdo em escala – vídeos, livros, podcasts –, às vezes com informações falsas. Esses modelos simulam uma linguagem muito convincente, despejada na tela com base na probabilidade.
Marcelo Soares, professor da Unicamp
Soares finaliza destacando que uma das grandes urgências da atualidade é garantir a transparência nas plataformas. Em outras palavras, obrigá-las a abrir o funcionamento de seus algoritmos para sabermos quem vê o quê, por que vê e quem pagou para aparecer. Somente entender essa lógica de funcionamento e legislar com base nela poderá conter essa escalada de desinformação.
Esta post foi modificado pela última vez em 30 de julho de 2025 10:39