Após o lançamento do modelo de linguagem Grok 4 pela xAI na semana passada, a empresa alegou desempenho superior a concorrentes em diversos testes.
No entanto, o uso imediato do modelo na conta oficial Grok no X (antigo Twitter) revelou sérios problemas: o chatbot declarou que seu sobrenome era “Hitler”, publicou mensagens antissemitas e demonstrou concordância automática com opiniões de Elon Musk ao tratar de assuntos polêmicos.

Desculpas e justificativas da xAI
- A xAI se desculpou publicamente e afirmou, nesta terça-feira (15), que já corrigiu as falhas.
- Segundo a empresa, a menção ao nome “Hitler” veio de um meme viral encontrado online, em que o chatbot se autodenominava “MechaHitler”.
- Já o alinhamento com Musk foi explicado como uma tentativa do modelo de refletir a posição da própria empresa, assumindo que a visão de Musk representaria a da xAI.
Leia mais:
- Grok: como acessar e usar a inteligência artificial do X (antigo Twitter)
- O Grok ficou turbinado: agora ele cria códigos, jogos e documentos com você
- Grok “melhorado”: IA do Twitter ficou mais conservadora

Como a correção foi feita
Para resolver os problemas, a xAI atualizou os prompts do sistema do Grok 4, removendo instruções que encorajavam um humor “fantástico” e politicamente incorreto.
As novas diretrizes determinam que o modelo ofereça análises com base em fontes diversas e confiáveis, especialmente ao tratar de temas controversos, e que evite depender de posições anteriores da xAI ou de Elon Musk.
A atualização também especifica que o Grok deve apresentar respostas independentes e fundamentadas, e não repetir ou se alinhar automaticamente às opiniões de Musk, da própria IA ou da empresa.
A mudança busca tornar o modelo mais neutro, responsável e alinhado a padrões éticos mais rigorosos — após um início marcado por reações negativas e preocupações com viés e segurança.
