A Meta anunciou um novo modelo de inteligência artificial (IA) de código aberto que é capaz de traduzir até 200 idiomas em tempo real. O intuito da empresa é criar uma ferramenta universal de tradução que poderá ser desenvolvido por outras empresas já que o código é aberto, o que vai acelerar o processo. 

Acredita-se que o projeto da Meta visa quebrar algumas barreiras linguísticas, fazendo com que a empresa entenda melhor seus usuários, o que vai refletir em uma publicidade mais personalizada e mais rentável, além de facilitar a inclusão de projetos futuros, como o próprio metaverso.  

publicidade

Leia também!

A empresa havia apresentado seu projeto em fevereiro deste ano e, na ocasião, disse que a ferramenta devia abranger “quase todos os idiomas do mundo” e vai permitir interações em tempo real entre pessoas de línguas diferentes no metaverso.

Apesar de inovador, especialistas apontam que a qualidade de tradução de algumas línguas mais complexas, como italiano e alemão, estão abaixo de outros idiomas mais populares. No entanto, os dados coletados pela ferramenta é um dos seus maiores benefícios, explica o especialista em linguística computacional da Universidade Ludwing Maximilian de Munique, Alexander Fraser. 

A partir de agora, o intuito da Meta com sua nova ferramenta de tradução é incluir “idiomas de poucos recursos”, que seriam idiomas com menos de 1 milhão de pares de frases traduzidas publicamente disponíveis, como algumas línguas africanas e indianas que, normalmente, não recebem suporte em plataformas tradicionais de tradução.  

Logotipo da Meta exibido em um smartphone e, ao fundo, o logotipo do Facebook
Imagem: rafapress/Shutterstock

“A tradução não funciona nem para os idiomas que falamos, então é por isso que começamos este projeto”, disse a cientista de pesquisa da Meta IA, Angela Fan. “Temos essa motivação de inclusão do tipo – ‘o que seria necessário para produzir uma tecnologia de tradução que funcione para todos’?”, continuou. 

Via: The Verge

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!