Usuários perceberam que o modelo o1 – “cérebro” do ChatGPT capaz de “refletir” – às vezes “pensa” em idiomas diferentes do usado nos comandos. Quando questionada em inglês, por exemplo, a inteligência artificial (IA) da OpenAI por vezes começava a “raciocinar” em chinês, persa, francês. E ninguém sabe por que isso acontece.
No entanto, vale mencionar: o ChatGPT respondeu a pergunta (ou o comando dado) no idioma escolhido pelo usuário. Os, digamos, desvios linguísticos ocorreram ao longo da “linha de raciocínio” traçada pelo modelo o1 da OpenAI.
Mudanças no idioma do ‘raciocínio’ do ChatGPT intriga usuários e especialistas em IA
“[O modelo o1] começa aleatoriamente a achar que eu sou chinês”, disse um usuário no Reddit. “Por que [o o1] começou a pensar aleatoriamente em chinês?”, questionou outro usuário, no X (antigo Twitter). Confira abaixo as postagens:
o1 randomly starts thinking I’m Chinese
byu/UnknownEssence inOpenAI
Why did o1 pro randomly start thinking in Chinese? No part of the conversation (5+ messages) was in Chinese… very interesting… training data influence pic.twitter.com/yZWCzoaiit
— Rishab Jain (@RishabJainK) January 9, 2025
“Nenhuma parte da conversa (com mais de cinco mensagens) estava em chinês. Muito interessante. Influência dos dados usados para treinamento”, acrescentou o usuário na postagem no X.
Até a publicação desta nota, a OpenAI não tinha explicado nem reconhecido o comportamento peculiar do o1.
Possíveis explicações para comportamento do ChatGPT
O TechCrunch pinçou palpites nas redes sociais sobre (e repercutiu entre especialistas em IA) o comportamento do modelo o1 da OpenAI. Como costuma acontecer entre especialistas, não há consenso sobre as possíveis razões por trás das mudanças de idioma no “raciocínio”.
O CEO da Hugging Face, Clément Delangue, mencionou que modelos de “raciocínio” como o o1 são treinados em conjuntos de dados que contêm muitos caracteres chineses.

Ted Xiao, pesquisador do Google DeepMind, explicou que empresas como a OpenAI utilizam serviços terceirizados de rotulagem de dados chineses. Segundo Xiao, a mudança do o1 para chinês é um exemplo de “influência linguística chinesa no raciocínio”.
- Para quem não sabe: rótulos, também conhecidos como tags ou anotações, ajudam os modelos a entender e interpretar dados durante treinamentos.
No entanto, outros especialistas apontam que o o1 tem a mesma probabilidade de mudar para hindi, tailandês ou outro idioma além do chinês enquanto “pensa”. Segundo eles, o1 e outros modelos de raciocínio podem simplesmente estar usando idiomas que acham mais eficientes para alcançar um objetivo. Ou podem estar apenas alucinando mesmo.
“O modelo não sabe o que é um idioma, ou que os idiomas são diferentes”, disse Matthew Guzdial, pesquisador de IA e professor assistente na Universidade de Alberta, ao site de tecnologia. “Para ele, tudo é apenas texto.”
Leia mais:
- Dados sintéticos podem salvar a IA, mas há um preço
- Meta AI ou Google Gemini: qual é melhor inteligência artificial?
- Quais são as principais empresas de Inteligência Artificial do mundo

Tiezhen Wang, engenheiro de software na startup de IA Hugging Face, concorda com Guzdial. “Ao abraçar toda nuance linguística, expandimos a visão de mundo do modelo e permitimos que ele aprenda com o espectro completo do conhecimento humano”, escreveu Wang no X.
“Por exemplo, eu prefiro fazer matemática em chinês porque cada dígito é apenas uma sílaba, o que torna os cálculos nítidos e eficientes. Mas quando se trata de tópicos como viés inconsciente, eu automaticamente mudo para o inglês, principalmente porque foi lá que aprendi e absorvi essas ideias.”
Luca Soldaini, cientista do Allen Institute for AI, alertou para uma questão importante nesta historia. “Este tipo de observação num sistema de IA implantado é impossível de comprovar devido à opacidade desses modelos“, disse ele ao site de tecnologia. “É um dos muitos casos pelos quais a transparência em como os sistemas de IA são construídos é fundamental.”