Siga o Olhar Digital no Google Discover
A plataforma X, o antigo Twitter, começará a testar o uso de chatbots de inteligência artificial na geração de Notas da Comunidade — recurso colaborativo que adiciona contexto a postagens potencialmente enganosas ou polêmicas. As informações exclusivas são do AdWeek.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 200,29
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Tal recurso, que se tornou marca registrada da gestão Elon Musk, são criadas por usuários voluntários e só se tornam públicas quando há consenso entre avaliadores com históricos de opinião divergente.
Como a novidade deve funcionar
Agora, a ideia é permitir que ferramentas como o Grok (IA do X) e outros LLMs (modelos de linguagem) contribuam com essas notas via API. As contribuições feitas por IA passarão pelo mesmo processo de revisão e verificação que as notas humanas.

Confiabilidade nas IAs pode ser motivo de polêmica
- Apesar do potencial, a iniciativa gera dúvidas.
- Modelos de IA são conhecidos por “alucinações” — gerando conteúdos imprecisos ou fabricados — o que levanta preocupações sobre sua confiabilidade como ferramenta de checagem.
- Um artigo recente de pesquisadores do X defende o uso combinado de humanos e IA, sugerindo que avaliadores humanos atuem como filtros finais e que o sistema funcione como um “ciclo virtuoso” de cooperação, e não como uma substituição.
Leia mais:
- Grok: como acessar e usar a inteligência artificial do X (antigo Twitter)
- X (Twitter): como ver minhas sessões ativas e sair delas
- Como criar senhas fortes para proteger redes sociais e dados sensíveis

“O objetivo não é criar um assistente de IA que diga aos usuários o que pensar, mas sim capacitar os humanos a pensar criticamente”, diz o artigo.
Mesmo assim, especialistas alertam que a automação em excesso pode sobrecarregar os verificadores voluntários, reduzindo sua motivação.
Além disso, o uso de modelos externos — como o ChatGPT, que já enfrentou críticas por priorizar simpatia em vez de precisão — pode comprometer a qualidade do conteúdo gerado.
As Notas da Comunidade feitas por IA ainda não estão disponíveis. Segundo o X, o recurso será testado por algumas semanas antes de uma possível expansão.
