ChatGPT ‘pensa’ em outras línguas às vezes – e ninguém sabe por que

Quando questionado em inglês, por exemplo, o modelo o1 do ChatGPT por vezes começava a "raciocinar" em chinês, persa, francês...
Pedro Spadoni15/01/2025 11h29
Montagem com logomarca do ChatGPT colocada sobre botão seletor de idiomas
(Imagem: Olivier Le Moal - Shutterstock / Pedro Spadoni - Olhar Digital)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Usuários perceberam que o modelo o1 – “cérebro” do ChatGPT capaz de “refletir” – às vezes “pensa” em idiomas diferentes do usado nos comandos. Quando questionada em inglês, por exemplo, a inteligência artificial (IA) da OpenAI por vezes começava a “raciocinar” em chinês, persa, francês. E ninguém sabe por que isso acontece.

No entanto, vale mencionar: o ChatGPT respondeu a pergunta (ou o comando dado) no idioma escolhido pelo usuário. Os, digamos, desvios linguísticos ocorreram ao longo da “linha de raciocínio” traçada pelo modelo o1 da OpenAI.

Mudanças no idioma do ‘raciocínio’ do ChatGPT intriga usuários e especialistas em IA

“[O modelo o1] começa aleatoriamente a achar que eu sou chinês”, disse um usuário no Reddit. “Por que [o o1] começou a pensar aleatoriamente em chinês?”, questionou outro usuário, no X (antigo Twitter). Confira abaixo as postagens:

o1 randomly starts thinking I’m Chinese
byu/UnknownEssence inOpenAI

“Nenhuma parte da conversa (com mais de cinco mensagens) estava em chinês. Muito interessante. Influência dos dados usados para treinamento”, acrescentou o usuário na postagem no X.

Até a publicação desta nota, a OpenAI não tinha explicado nem reconhecido o comportamento peculiar do o1.

Possíveis explicações para comportamento do ChatGPT

O TechCrunch pinçou palpites nas redes sociais sobre (e repercutiu entre especialistas em IA) o comportamento do modelo o1 da OpenAI. Como costuma acontecer entre especialistas, não há consenso sobre as possíveis razões por trás das mudanças de idioma no “raciocínio”.

O CEO da Hugging Face, Clément Delangue, mencionou que modelos de “raciocínio” como o o1 são treinados em conjuntos de dados que contêm muitos caracteres chineses.

Logomarca do ChatGPT em tela de celular colocado na frente de imagem de logomarca da OpenAI
Até a publicação desta nota, a OpenAI não tinha explicado o comportamento peculiar do o1 (Imagem: One Artist/Shutterstock)

Ted Xiao, pesquisador do Google DeepMind, explicou que empresas como a OpenAI utilizam serviços terceirizados de rotulagem de dados chineses. Segundo Xiao, a mudança do o1 para chinês é um exemplo de “influência linguística chinesa no raciocínio”.

  • Para quem não sabe: rótulos, também conhecidos como tags ou anotações, ajudam os modelos a entender e interpretar dados durante treinamentos.

No entanto, outros especialistas apontam que o o1 tem a mesma probabilidade de mudar para hindi, tailandês ou outro idioma além do chinês enquanto “pensa”. Segundo eles, o1 e outros modelos de raciocínio podem simplesmente estar usando idiomas que acham mais eficientes para alcançar um objetivo. Ou podem estar apenas alucinando mesmo.

“O modelo não sabe o que é um idioma, ou que os idiomas são diferentes”, disse Matthew Guzdial, pesquisador de IA e professor assistente na Universidade de Alberta, ao site de tecnologia. “Para ele, tudo é apenas texto.”

Leia mais:

Foto estilo POV de pessoa segurando lupa sobre tela de notebook com ChatGPT aberto
Usuários e especialistas ficaram intrigados ao observar mudanças de idioma em “linhas de raciocínio” do ChatGPT (Imagem: Rokas Tenys/Shutterstock)

Tiezhen Wang, engenheiro de software na startup de IA Hugging Face, concorda com Guzdial. “Ao abraçar toda nuance linguística, expandimos a visão de mundo do modelo e permitimos que ele aprenda com o espectro completo do conhecimento humano”, escreveu Wang no X.

“Por exemplo, eu prefiro fazer matemática em chinês porque cada dígito é apenas uma sílaba, o que torna os cálculos nítidos e eficientes. Mas quando se trata de tópicos como viés inconsciente, eu automaticamente mudo para o inglês, principalmente porque foi lá que aprendi e absorvi essas ideias.”

Luca Soldaini, cientista do Allen Institute for AI, alertou para uma questão importante nesta historia. “Este tipo de observação num sistema de IA implantado é impossível de comprovar devido à opacidade desses modelos“, disse ele ao site de tecnologia. “É um dos muitos casos pelos quais a transparência em como os sistemas de IA são construídos é fundamental.”

Pedro Spadoni
Redator(a)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.