Imagem: Divulgação/1X
O Eve, robô humanoide da empresa de robótica 1X, parceira da OpenAI, acaba de receber um novo recurso baseado em uma interface de linguagem natural que ampliou o entendimento do dispositivo em grupo. Conforme divulgado pela New Atlas, o protótipo agora realiza tarefas simples a partir de novos comandos de voz, e apenas uma ordem pode ativar todos os robôs (ligados pelo mesmo sistema neural).
Segundo vídeo divulgado pela empresa, eles entendem e se dividem em uma força tarefa da limpeza após o comando, enquanto um limpa respingos em uma mesa, outro pegar roupas do chão e um terceiro até buscar água. Veja mais abaixo!
Leia mais!
O que você precisa saber:
Confira abaixo o vídeo:
Dirigir robôs com esta interface de linguagem de alto nível oferece uma nova experiência de usuário para coleta de dados. Em vez de usar VR para controlar um único robô, um operador pode dirigir vários robôs com linguagem de alto nível e permitir que as políticas de baixo nível executem ações de baixo nível para atingir esses objetivos de alto nível. Porque as ações de alto nível são enviadas raramente, os operadores podem até controlar robôs remotamente.
Eric Jang, da 1X, em postagem no blog da empresa.
A 1X pontuou que os humanoides Eve no vídeo acima não são teleoperados, com todas as ações controladas por uma rede neural — o que eles consideraram mais simples que aumentar a contagem de parâmetros às custas de maior tempo de treinamento e desenvolvimento mais lento.
Também não há gráficos gerados por computador, nem “cortes, acelerações de vídeo ou reprodução de trajetória com script“. Empolgados, o próximo passo será integrar modelos de linguagem de visão como GPT-4o, VILA e Gemini Vision ao sistema.
Esta post foi modificado pela última vez em 5 de junho de 2024 21:23