Pesquisadores da Universidade Johns Hopkins criaram uma nova interface cérebro-máquina que, em tese, permite que pessoas com paralisia nos membros ganhem mais autonomia mesmo diante de sua condição clínica desfavorável.

Uma interface cérebro-máquina é exatamente aquilo que o nome sugere: eletrodos de variados tamanhos inseridos nas partes motoras do cérebro para que os pacientes consigam ter um mínimo de movimento sem depender de assistências motoras – sejam elas outras máquinas, muletas ou mesmo ajudantes humanos.

publicidade
Por meio de uma nova interface cérebro-máquina, um paciente com paralisia nos braços foi capaz de se alimentar sozinho: tecnologia criada pela Johns Hopkins, porém, ainda deve demorar a ser disponibilizada em massa
Por meio de uma nova interface cérebro-máquina, um paciente com paralisia nos braços foi capaz de se alimentar sozinho: tecnologia criada pela Johns Hopkins, porém, ainda deve demorar a ser disponibilizada em massa (Imagem: Universidade Johns Hopkins/Divulgação)

A nova técnica, segundo descrito pelo paper, “é centrada em um sistema compartilhado de controle que minimiza a quantidade de comandos mentais necessários para se completar uma tarefa”. Em termos técnicos, o sistema faz o mapeamento dos quatro pontos de movimento dos membros (dois para cada mão), permitindo a realização de movimentos amplos do robô com pouco input cerebral do paciente.

Em testes práticos, um homem com paralisia nos braços conseguiu se alimentar sozinho. Segundo a Johns Hopkins, “ele poderia degustar uma sobremesa em até 90 segundos”. O homem em questão exibiu alguns movimentos simples com as mãos fechadas, e o sistema os compreendeu como “cortar”, “garfar” e “levar à boca”.

publicidade

“Um participante humano com microeletrodos instalados nas regiões sensório-motoras do cérebro deu comendos a ambas às MPLs para que elas executassem a tarefa de alimentação autônoma, o que incluiu o [movimento de] corte bimanual”, diz trecho do estudo, fazendo menção às próteses robóticas (“MPL” é uma sigla em inglês para “membros prostéticos modulares”) que executaram os comandos.

Leia também

publicidade

A universidade reconhece, porém, que a tecnologia ainda é jovem e não deve ver uma aplicação massificada tão cedo: apesar da inovação da técnica, ainda há que se descobrir como fazer as próteses executarem comandos mais refinados. Atualmente, ela é bastante dependente de confirmações visuais, então os pesquisadores querem incluir capacidades de feedback sensorial a fim de aliviar a necessidade de se “olhar” para o que se quer comandar.

O estudo completo está disponível no jornal Frontiers in Neurorobotics.

publicidade

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!