Robô humanoide da OpenAI atende por voz e faz trabalho em grupo; veja!

Força tarefa da limpeza? Eve da 1X agora realiza tarefas em grupo — enquanto um limpa a mesa, o outro busca sua água
Por Tamires Ferreira, editado por Bruno Capozzi 04/06/2024 20h37, atualizada em 05/06/2024 21h23
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O Eve, robô humanoide da empresa de robótica 1X, parceira da OpenAI, acaba de receber um novo recurso baseado em uma interface de linguagem natural que ampliou o entendimento do dispositivo em grupo. Conforme divulgado pela New Atlas, o protótipo agora realiza tarefas simples a partir de novos comandos de voz, e apenas uma ordem pode ativar todos os robôs (ligados pelo mesmo sistema neural). 

Segundo vídeo divulgado pela empresa, eles entendem e se dividem em uma força tarefa da limpeza após o comando, enquanto um limpa respingos em uma mesa, outro pegar roupas do chão e um terceiro até buscar água. Veja mais abaixo! 

Leia mais! 

O que você precisa saber: 

  • A 1X, antes Halodi Robotics, fechou uma parceria com OpenAI “para combinar robótica e IA e estabelecer as bases para a aprendizagem incorporada” em 2022; 
  • Desde então, as companhias vêm desenvolvendo o Eve, que já era um protótipo da empresa enquanto Halodi; 
  • Segundo a 1X, uma nova interface de linguagem natural que permite a um operador controlar vários humanoides usando comandos de voz foi criada para o Eve, com o ajudante robô reunindo um monte de ações aprendidas para completar tarefas complexas; 
  • O objetivo é que o protótipo seja útil principalmente no local de trabalho, onde os bots irão “entender tanto a linguagem natural quanto espaço físico, para que possam realizar tarefas reais em todo o seu local de trabalho e no seu mundo”; 
  • Vale lembrar que o modelo já consegue tirar itens de uma sacola de compras e decidir onde colocá-los, limpar respingos de outras superfícies e dobrar roupas. 

Confira abaixo o vídeo: 

Dirigir robôs com esta interface de linguagem de alto nível oferece uma nova experiência de usuário para coleta de dados. Em vez de usar VR para controlar um único robô, um operador pode dirigir vários robôs com linguagem de alto nível e permitir que as políticas de baixo nível executem ações de baixo nível para atingir esses objetivos de alto nível. Porque as ações de alto nível são enviadas raramente, os operadores podem até controlar robôs remotamente.

Eric Jang, da 1X, em postagem no blog da empresa.

A 1X pontuou que os humanoides Eve no vídeo acima não são teleoperados, com todas as ações controladas por uma rede neural — o que eles consideraram mais simples que aumentar a contagem de parâmetros às custas de maior tempo de treinamento e desenvolvimento mais lento.  

Também não há gráficos gerados por computador, nem “cortes, acelerações de vídeo ou reprodução de trajetória com script“. Empolgados, o próximo passo será integrar modelos de linguagem de visão como GPT-4o, VILA e Gemini Vision ao sistema. 

Tamires Ferreira
Redator(a)

Tamires Ferreira é jornalista formada pela Fiam-Faam e tem como experiência a produção em TV, sites e redes sociais, além de reportagens especiais. Atualmente é redatora de Hard News no Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.