(Imagem: Primakov/Shutterstock)
A decisão do X (antigo Twitter) em usar inteligência artificial para redigir notas de checagem de fatos provocou críticas e preocupações entre especialistas e autoridades, conforme revela o The Guardian.
O ex-ministro britânico da Tecnologia, Damian Collins, afirmou que a medida pode “promover mentiras e teorias da conspiração” ao delegar a verificação de informações a sistemas automatizados.
A nova abordagem do X permitirá que modelos de linguagem generativa redijam esboços de notas da comunidade, exibidas abaixo de postagens controversas, antes de serem revisadas e aprovadas por usuários humanos com visões diferentes.
“Estamos deixando a edição de notícias nas mãos de bots”, alertou Collins. Para ele, a mudança torna o sistema vulnerável a manipulações em larga escala, comprometendo a confiança nas informações da plataforma, que tem cerca de 600 milhões de usuários.
Leia mais:
O vice-presidente de produto do X, Keith Coleman, defendeu a iniciativa, afirmando que a IA atuará como assistente, com decisão final dos usuários.
A empresa publicou um artigo técnico, em parceria com acadêmicos de Harvard, MIT e Stanford, defendendo que a combinação entre humanos e IA pode ser mais eficiente e confiável do que a checagem profissional tradicional, considerada lenta e limitada em escala.
Pesquisas mostram, no entanto, que notas feitas por humanos são percebidas como mais confiáveis.
Um estudo recente do Center for Countering Digital Hate identificou falhas no atual sistema de notas da comunidade: em 75% das postagens enganosas analisadas, nenhuma nota corretiva foi exibida, apesar de terem somado mais de 2 bilhões de visualizações, com alegações como fraudes eleitorais e teorias conspiratórias.
Esta post foi modificado pela última vez em 2 de julho de 2025 17:12