(Imagem: Olivier Le Moal - Shutterstock / Pedro Spadoni - Olhar Digital)
Usuários perceberam que o modelo o1 – “cérebro” do ChatGPT capaz de “refletir” – às vezes “pensa” em idiomas diferentes do usado nos comandos. Quando questionada em inglês, por exemplo, a inteligência artificial (IA) da OpenAI por vezes começava a “raciocinar” em chinês, persa, francês. E ninguém sabe por que isso acontece.
No entanto, vale mencionar: o ChatGPT respondeu a pergunta (ou o comando dado) no idioma escolhido pelo usuário. Os, digamos, desvios linguísticos ocorreram ao longo da “linha de raciocínio” traçada pelo modelo o1 da OpenAI.
“[O modelo o1] começa aleatoriamente a achar que eu sou chinês”, disse um usuário no Reddit. “Por que [o o1] começou a pensar aleatoriamente em chinês?”, questionou outro usuário, no X (antigo Twitter). Confira abaixo as postagens:
o1 randomly starts thinking I’m Chinese
byu/UnknownEssence inOpenAI
“Nenhuma parte da conversa (com mais de cinco mensagens) estava em chinês. Muito interessante. Influência dos dados usados para treinamento”, acrescentou o usuário na postagem no X.
Até a publicação desta nota, a OpenAI não tinha explicado nem reconhecido o comportamento peculiar do o1.
O TechCrunch pinçou palpites nas redes sociais sobre (e repercutiu entre especialistas em IA) o comportamento do modelo o1 da OpenAI. Como costuma acontecer entre especialistas, não há consenso sobre as possíveis razões por trás das mudanças de idioma no “raciocínio”.
O CEO da Hugging Face, Clément Delangue, mencionou que modelos de “raciocínio” como o o1 são treinados em conjuntos de dados que contêm muitos caracteres chineses.
Ted Xiao, pesquisador do Google DeepMind, explicou que empresas como a OpenAI utilizam serviços terceirizados de rotulagem de dados chineses. Segundo Xiao, a mudança do o1 para chinês é um exemplo de “influência linguística chinesa no raciocínio”.
No entanto, outros especialistas apontam que o o1 tem a mesma probabilidade de mudar para hindi, tailandês ou outro idioma além do chinês enquanto “pensa”. Segundo eles, o1 e outros modelos de raciocínio podem simplesmente estar usando idiomas que acham mais eficientes para alcançar um objetivo. Ou podem estar apenas alucinando mesmo.
“O modelo não sabe o que é um idioma, ou que os idiomas são diferentes”, disse Matthew Guzdial, pesquisador de IA e professor assistente na Universidade de Alberta, ao site de tecnologia. “Para ele, tudo é apenas texto.”
Leia mais:
Tiezhen Wang, engenheiro de software na startup de IA Hugging Face, concorda com Guzdial. “Ao abraçar toda nuance linguística, expandimos a visão de mundo do modelo e permitimos que ele aprenda com o espectro completo do conhecimento humano”, escreveu Wang no X.
“Por exemplo, eu prefiro fazer matemática em chinês porque cada dígito é apenas uma sílaba, o que torna os cálculos nítidos e eficientes. Mas quando se trata de tópicos como viés inconsciente, eu automaticamente mudo para o inglês, principalmente porque foi lá que aprendi e absorvi essas ideias.”
Luca Soldaini, cientista do Allen Institute for AI, alertou para uma questão importante nesta historia. “Este tipo de observação num sistema de IA implantado é impossível de comprovar devido à opacidade desses modelos“, disse ele ao site de tecnologia. “É um dos muitos casos pelos quais a transparência em como os sistemas de IA são construídos é fundamental.”
Esta post foi modificado pela última vez em 15 de janeiro de 2025 11:29