O ‘olho artificial’ chinês que muda como robôs olham e entendem o mundo

Sistema EyeVLA combina visão, linguagem e ação para permitir que robôs com IA escolham o que ver com mais precisão; entenda como funciona
Pedro Spadoni03/12/2025 15h14
Ilustração de olho robótico para inteligência artificial (IA)
(Imagem: Pedro Spadoni via ChatGPT/Olhar Digital)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Cientistas da Universidade de Shanghai Jiao Tong e da Academia Chinesa de Ciências apresentaram o EyeVLA. É um “globo ocular robótico” projetado para dar visão ativa a sistemas de Inteligência Artificial Incorporada (robôs e máquinas inteligentes que interagem com o mundo real).

O dispositivo gira o ponto de vista, ajusta o zoom e coleta imagens conforme a instrução recebida. Isso aproxima robôs da forma como humanos exploram ambientes.

A proposta nasce para resolver uma limitação clássica da visão robótica. Atualmente, câmeras RGB-D fixas capturam cor e profundidade, mas não conseguem combinar campo amplo e detalhes finos na mesma cena. 

O EyeVLA tenta quebrar esse gargalo ao permitir uma varredura proativa, escolhendo onde mirar e como refinar a observação. Na prática, abre caminho para robôs que conseguem enxergar melhor em ambientes abertos e identificar alvos pequenos sem perder a noção do todo.

EyeVLA unifica visão, linguagem e ação para superar restrições de câmeras fixas

A base do problema está no modo como a visão robótica ainda funciona: como um processo passivo, dependente de uma imagem única e pronta. Na prática, a percepção em robôs não é um “tiro único”, mas uma sequência de passos sob recursos limitados

Ilustração de olho robótico para inteligência artificial (IA)
Sistema de visão ativa do olho robótico ajusta pan, tilt e zoom para explorar cenas e ambientes (Imagem: Pedro Spadoni via ChatGPT/Olhar Digital)

Mesmo assim, a maioria dos modelos de linguagem de visão (VLMs, na sigla em inglês) parte de fotos estáticas, tratadas como entradas “suficientes”, sem decidir onde olhar nem que escala usar.

Esse modelo passivo se apoia em câmeras RGB-D fixas, que alternam entre redundância (muito fundo pouco útil) e omissões críticas (pequenos elementos decisivos para a tarefa). 

O problema aparece em tarefas que pedem precisão, como checar se “o pequeno botão vermelho está na posição desligado”. Nesses casos, os sistemas atuais falham porque pensam mais do que conseguem enxergar

Em outras palavras: o raciocínio avança, mas a percepção não acompanha. É essa diferença de ritmo que cria a lacuna estrutural da robótica hoje em dia.

É nessa lacuna que entra o EyeVLA, sistema de visão ativa guiado por linguagem descrito em artigo disponível no arXiv. A proposta desloca a lógica tradicional. Em vez de apenas responder sobre o que está na imagem, o sistema decide o que ver em seguida para reduzir a incerteza e avançar na tarefa. 

Assim, ele unifica visão, linguagem e controle de câmera (pan, tilt e zoom) num único fluxo de decisão, que já leva em conta os limites de pixels e de área que a câmera consegue cobrir.

No hardware, o EyeVLA usa um suporte pan-tilt 2D e uma câmera com zoom para operar em 3D. Em vez de trabalhar com movimentos contínuos, o sistema transforma cada ação em pequenos tokens, que depois viram comandos de ajuste horizontal, vertical e de zoom. 

Toda a cadeia é guiada por bounding boxes 2D, que ajudam o sistema a raciocinar sobre o que observar a seguir. É essa combinação que permite ao EyeVLA transformar olhar, interpretar e agir num único fluxo.

EyeVLA demonstra generalização e alta taxa de conclusão com treinamento eficiente

No núcleo algorítmico, o EyeVLA adapta o Qwen2.5-VL (7B), modelo com forte compreensão de mundo aberto. A inovação está em integrar tokens de ação ao VLM. Isso permite que visão, linguagem e ações sejam modeladas juntas. 

Ilustração de olho robótico para inteligência artificial (IA)
Visualização do processo de aprendizado afina os movimentos da câmera usada em olho robótico para IAs (Imagem: Pedro Spadoni via ChatGPT/Olhar Digital)

A forma como o EyeVLA representa pan, tilt e zoom torna o sistema bem mais compacto. Cada ação vira, em média, 2,3 tokens, enquanto métodos tradicionais precisariam de cerca de 12,7 para expressar o mesmo movimento. Para isso funcionar, os pesquisadores adicionaram 43 novos tokens ao vocabulário do Qwen2.5-VL.

O treinamento segue duas fases. No alinhamento supervisionado (SFT), o modelo é ajustado com 50 mil amostras sintéticas do conjunto Rexverse-2M. Para evitar o “esquecimento catastrófico”, o Vision Transformer e o projetor visão-linguagem ficam congelados. 

Depois, entra o aprendizado por reforço (RL), que corrige vieses dos pseudo-rótulos e fortalece a política de ação. O resultado é um processo capaz de produzir políticas acionáveis com apenas 500 amostras reais.

Nos testes, o EyeVLA mostrou forte capacidade de adquirir informação ativa, movendo e ampliando o ponto de vista com instruções de rotação e zoom. 

No estágio RL3, o mais refinado, o sistema alcançou 96% de taxa de conclusão e apresentou erro médio absoluto de 2,04° (rotação horizontal) e 1,68° (vertical). 

Isso elevou a robustez e a precisão em tarefas do mundo real, incluindo perguntas que exigem enxergar detalhes, como identificar o medicamento dentro de uma caixa ou a marca de uma caneta parcialmente oculta.

Leia mais:

Ainda assim, o método encontra limites práticos. O maior gargalo está na demanda computacional dos VLMs e nas restrições do hardware de câmera, que dificultam o uso em tempo real. 

Essas limitações também impedem estratégias de exploração mais ricas, como fazer zoom out depois do zoom in para recuperar o contexto de outras regiões da cena. 

Mesmo com essas barreiras, o EyeVLA entrega um passo concreto em direção a robôs que decidem melhor como olhar, não apenas o que interpretar.

(Essa matéria também usou informações do TechXplore.)

Pedro Spadoni
Redator(a)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.