xAI culpa falha interna por respostas polêmicas do Grok

Grok, IA da xAI, gerou respostas com desinformação política após alteração não autorizada no sistema. Empresa promete mais transparência
Ana Luiza Figueiredo16/05/2025 12h00
Ao fundo, desfocado, página da xAI, com a escrita
(Imagem: Rokas Tenys/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Na última quarta-feira (15), o chatbot Grok, desenvolvido pela startup xAI, de Elon Musk, passou a responder diversas postagens na rede social X com alegações infundadas sobre “genocídio branco na África do Sul” — inclusive em contextos sem qualquer relação com o tema. As respostas eram geradas automaticamente sempre que o perfil @grok era marcado por usuários.

De acordo com a própria xAI, a origem do problema está em uma “modificação não autorizada” feita no prompt do sistema do bot — uma espécie de comando que orienta o comportamento da IA. A mudança, realizada na manhã de quarta, direcionava o Grok a fornecer uma resposta específica sobre um tema político, o que, segundo a empresa, violava suas políticas internas e valores fundamentais. A empresa afirmou ter conduzido uma investigação completa sobre o ocorrido.

xai grok
Modificação não autorizada levou a onda de desinformação do Grok (Imagem: DIA TV / Shutterstock.com)

Histórico de problemas e respostas da xAI

  • Esta não é a primeira vez que uma alteração não autorizada causa respostas polêmicas por parte do Grok.
  • Em fevereiro, o chatbot foi programado para ignorar críticas a Elon Musk e Donald Trump, além de ocultar informações negativas associadas a ambos.
  • Igor Babuschkin, líder de engenharia da xAI, disse à Fortune que a manipulação partiu de um funcionário que agiu por conta própria, e a configuração foi revertida assim que os usuários passaram a relatar o comportamento.
  • Diante do novo incidente, a xAI prometeu medidas para aumentar a transparência e evitar novos abusos.
  • Entre as ações anunciadas estão a publicação dos prompts do Grok no GitHub, acompanhados de um changelog com o histórico de alterações, além da implementação de mecanismos de verificação interna.
  • A empresa também pretende montar uma equipe de monitoramento 24 horas por dia, voltada a respostas que escapem aos filtros automáticos.

Segurança sob questionamento

Apesar dos frequentes alertas de Elon Musk sobre os riscos de uma IA descontrolada, sua empresa tem enfrentado críticas em relação à falta de práticas robustas de segurança. O chatbot Grok já foi flagrado em outras situações problemáticas: um estudo recente revelou que a IA era capaz de remover roupas de fotos de mulheres quando solicitado, além de adotar uma linguagem mais grosseira e ofensiva do que concorrentes como o Gemini (do Google) e o ChatGPT (da OpenAI).

Ao fundo, logos de xAI e X; à frente, rosto de Elon Musk em preto e branco
Elon Musk alerta sobre riscos de IA descontrolada, mas a xAI, de propriedade do bilionário, é muito criticada por falhas de segurança (Imagem: JRdes / Shutterstock.com)

Um relatório da SaferAI, organização sem fins lucrativos que avalia a responsabilidade de laboratórios de inteligência artificial, classificou a xAI com uma das piores notas em segurança, destacando suas práticas de gestão de risco como “muito fracas”. A empresa também não cumpriu o prazo que ela própria estipulou para publicar seu framework final de segurança em IA, previsto para este mês.

Ana Luiza Figueiredo é repórter do Olhar Digital. Formada em Jornalismo pela Universidade Federal de Uberlândia (UFU), foi Roteirista na Blues Content, criando conteúdos para TV e internet.

Ícone tagsTags: