Um time de pesquisadores da Universidade Tianjin de Tecnologia, na China, criou um novo modelo de reconhecimento de emoções específico para pessoas surdas por meio da inteligência artificial (IA), preenchendo uma lacuna deixada por diversos outros estudos do tipo, mas que se concentram exclusivamente em pessoas sem impedimentos auditivos.

O novo modelo emprega diversas ferramentas de machine learning – um braço da (IA) – para criar uma base de dados que reconhece as diferentes reações do cérebro de pessoas surdas frente a estímulos em três pilares: positivo, neutro e negativo.

publicidade

Leia também

Gráficos comparam a atividade cerebral de pessoas com audição normal no reconhecimento de emoções, comparando-a com pessoas surdas
Análises de eletrocardiograma mostram o funcionamento do cérebro na interpretação de emoções, comparando pessoas com audição normal e pessoas surdas (Imagem: Tianjin University of Technology/Reprodução)

“Na comunicação diária com estudantes surdos, nós descobrimos que eles reconhecem as emoções de outras pessoas por meio de observação visual”, disse Yu Song, do time de cientistas envolvido no paper. “Comparados a pessoas sem dificuldades auditivas, também há diferenças na percepção de emoção pelos surdos, o que pode causar alguns problemas, como desvios psicológicos na rotina diária”.

Inicialmente, os pesquisadores analisaram expressões das emoções de 15 pessoas surdas, comparando o material à SEED, uma base de dados mundial de reconhecimento de emoções capturadas em eletrocardiograma (ECG), mas direcionada apenas a pessoas com audição normal.

“Normalmente, as funções do ECG são extraídas em domínios de tempo, frequência e misto para reconhecimento de emoções”, disse Song. “Isso porque a teoria da neurociência sugere que o processo cognitivo se reflete na propagação da informação do pelo cérebro e as diferentes interações em suas regiões. Então, decidimos desenvolver uma rede neural artificial nova para o reconhecimento emocional, que combinasse as informações coletadas por diferentes algoritmos”.

“Depois disso”, continuou Song, “nós extraímos as funções gerais e locais do cérebro e as aplicamos em nosso modelo, classificando o material coletado. Nossos resultados experimentais mostraram que o modelo proposto de machine learning pode ‘aprender’ tanto funções discriminadas como aquelas de domínio robusto, aprimorando a precisão do reconhecimento de emoções [em pessoas surdas]. Ao contrário de outros formatos de aprendizado aprofundados, o nosso modelo também pode ser aplicado em amostras pequenas de dados e com certeza reduz o risco de sobreposição de informações”.

Basicamente, o modelo de machine learning dos pesquisadores chineses teve maior exatidão no reconhecimento de emoções de pessoas surdas do que o de pessoas sem impedimentos auditivos. Uma possível razão para isso é o fato de que pessoas com esse tipo de deficiência não possuem um canal dedicado à “leitura” de emoções, então o entendimento delas para reações do tipo é mais simples.

Segundo Song, até mesmo fisicamente essas diferenças se manifestam: em estímulos emocionais tempestuosos (algo que cause imensa alegria, ou imensa tristeza / raiva, por exemplo), as pessoas com audição normal acionavam mais os lóbulos pré-frontal e temporal do cérebro. As pessoas surdas também usam esses dois (ainda que em menor intensidade e grau variável de ativação), mas adicionam o lóbulo occipital.

Esse tipo de estudo pode trazer diversas mudanças positivas. A primeira é o possível aprimoramento da compreensão de estados emocionais e como eles se manifestam nos cérebros de pessoas surdas – e como isso é diferente do processamento emocional de pessoas sem impedimentos auditivos.

Mais além, o novo modelo de reconhecimento emocional pode ser usado para identificar emoções em pessoas surdas tanto no ambiente de rotina como em panoramas clínicos. Desta forma, os pesquisadores podem se informar melhor no desenvolvimento de estratégias que reduzam a diferença de percepção emocional entre os dois públicos.

O paper foi publicado no jornal IEEE Sensors.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!