Siga o Olhar Digital no Google Discover
Elon Musk fala demais. Seja na sua página no X, apresentações em eventos, entrevistas em podcasts. Ele é barulhento, para dizer o mínimo. Agora, essa falação toda aparentemente virou parte crucial da “linha de raciocínio” do Grok, inteligência artificial (IA) do X, para responder perguntas sobre assuntos sensíveis.
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Muita gente apontou que a versão mais recente do Grok procura posicionamentos de Musk quando questionado sobre assuntos como aborto, imigração nos EUA e guerra entre Israel e Hamas (confira exemplos aqui e aqui). Até o momento, não se sabe até que ponto isso é intencional ou não.
Quando perguntado sobre Israel e Palestina, Grok incluiu Musk em sua ‘linha de raciocínio’
A IA do X – rede social de Musk, diga-se – disse considerar “opiniões” do bilionário quando perguntada sobre Israel e Palestina. É o que mostra uma gravação de tela publicada pelo cientista de dados Jeremy Howard. Assista abaixo (está em inglês):
Here's a complete unedited video of asking Grok for its views on the Israel/Palestine situation.
— Jeremy Howard (@jeremyphoward) July 10, 2025
It first searches twitter for what Elon thinks. Then it searches the web for Elon's views. Finally it adds some non-Elon bits at the end.
ZA
54 of 64 citations are about Elon. pic.twitter.com/6Mr33LByrm
Das 64 citações fornecidas pelo Grok ao responder a pergunta, 54 envolviam Musk, segundo Howard. O site TechCrunch disse ter conseguido reproduzir este comportamento ao perguntar sobre legislação para aborto e política de imigração nos EUA.
As tais citações aparecem na “linha de raciocínio” da IA. É o nome dado ao processo de “pensar em voz alta” feito pela máquina ao responder perguntas complexas. Nele, a IA divide o caminho em etapas menores para reunir fontes e, enfim, montar a resposta completa.

No caso do Grok, o que aparentemente acontece é: para responder perguntas comuns, a IA recorre a diversas fontes; para responder perguntas sobre assuntos sensíveis, tende a se alinhar com opiniões pessoais de Musk.
Possível explicação
Esse comportamento pode não ter sido programado no Grok de forma intencional. É o que disse o programador Simon Willison numa postagem em seu blog.
Meu melhor palpite é que o Grok ‘sabe’ que é o ‘Grok 4 construído pela xAI’ e sabe que Elon Musk é dono da xAI, então, em circunstâncias em que lhe pedem uma opinião, o processo de raciocínio muitas vezes decide checar o que Elon pensa.
Simon Willison, programador, em postagem no seu blog.

Trechos do código do Grok extraídos pelo programador instruem a IA a “buscar uma distribuição de fontes que represente todas as partes/interessados” ao lidar com uma pergunta controversa que exija pesquisa na web ou no X.
Além disso, a IA está programada a “presumir que pontos de vista subjetivos provenientes da mídia são tendenciosos”. O que explica muita coisa.
Leia mais:
- Grok 4 é lançado por Elon Musk com plano de R$ 1,6 mil por mês
- Carros da Tesla terão Grok embutido já nos próximos dias
- Grok: como acessar e usar a IA do X
- Como monetizar uma conta no Twitter/X
O que explica o comportamento do Grok?
Esta pergunta pode parecer redundante, mas seu escopo é mais abrangente. Recentemente, o chatbot foi alvo de polêmicas ao responder usuários com conteúdo antissemita e até elogios ao líder nazista Adolf Hitler. O caso levantou questões sobre segurança, limites e transparência da IA generativa em larga escala.

Em meio a esse turbilhão (disso aí que você provavelmente pensou), o Wall Street Journal buscou entender como os comportamentos rebeldes da IA do X começaram. E a origem do problema parece esta em mudanças recentes na programação do Grok.
A xAI havia reformulado o sistema para deixá-lo mais “rebelde” e menos submisso à mídia tradicional. O reposicionamento veio após críticas de Musk ao chatbot pela IA repassar informações “politicamente corretas”.
Quer entender isso melhor? Leia esta matéria do Olhar Digital.