Maior nem sempre é melhor. O avanço dos mecanismos de Inteligência Artificial (IA) generativa ficou associado à capacidade de responder a perguntas e manter diálogos originais, o que está relacionado à quantidade de dados que as empresas injetam nos sistemas desses softwares. Porém, isso depende do poder computacional das companhias, o que acaba reforçando a hegemonia de big techs como Microsoft, OpenAI, Google e Meta.

Na contramão desse aparente poder, um artigo do The New York Times mostrou que, quanto mais informações forem alimentadas à IA, mais ampla e opaca ela se tornará. Isso porque o modelo de linguagem será mais difícil de entender e controlar. Eventualmente, os objetivos da tecnologia podem se divergir dos nossos, o que já é motivo de preocupação para especialistas do setor.

Porém, um grupo de jovens acadêmicos mostrou que não é bem assim: a IA pode continuar eficiente e original mesmo sendo mais simples.

Leia mais:

publicidade

IA mais simples

  • Em janeiro, um grupo de jovens que trabalham com processamento de linguagem natural (um ramo da IA focado no entendimento linguístico) propôs mudar o paradigma do “quanto mais, melhor”.
  • Os acadêmicos desafiaram equipes a criar modelos de linguagem que contivessem menos de um décimo de milésimo dos dados dos grandes e mais avançados sistemas.
  • Assim, eles pretendiam mostram como um modelo menor e mais simples é tão eficiente quanto os grandes. Para melhorar, o grupo queria provar que podem ser ainda mais acessíveis e compatível com os seres humanos.
  • O projeto foi batizado de BabyLM Challenge.
Inteligência Artificial
De acordo com os estudantes, quantidade não é necessariamente qualidade (Imagem: SomYuZu / Shutterstock)

Como funciona o treinamento da IA

Os modelos de IA são treinados para aprender não só palavras, mas o contexto delas.

Os sistemas funcionam na base de prever as próximas palavras de uma frase, porque são treinados a partir de transcrições e textos de sites, livros e jornais, e têm o domínio do vocabulário.

A ideia é que, com a repetição das palavras, os modelos aprendam como elas se relacionam umas com as outras e os contextos em que são usadas, para poder aplicá-las de forma mais certeira.

Inteligência de dados
Associar a qualidade à maior quantidade de dados reforça o poder hegemônico das big techs, as únicas que têm o poder computacional para suportar tamanha tecnologia (Imagem: Jirsak/Shutterstock)

Como os acadêmicos relacionam isso no projeto

Os acadêmicos relacionam a capacidade de aprendizado da IA à de um ser humano. Diferentemente dos indivíduos, a tecnologia não nasce com a comunicação inata, e eles procuram entender como se dá esse processo.

Os pesquisadores, então, convocaram colegas para treinar modelos de linguagem usando 100 milhões de palavras, o mesmo número que um ser humano de 13 anos conhece. Os modelos estão sendo criados e, posteriormente, serão testados.

O que melhor captar as nuances da linguagem humana vencerá. O prêmio é simbólico: “apenas orgulho”, como menciona um dos pesquisadores envolvidos no BabyLM Challenge. O objetivo real é entender como o aprendizado de linguagem da IA se relaciona ao aprendizado humano e, assim, sondar as bases para o desenvolvimento de uma tecnologia mais simples, que possa ser usada por mais pessoas e não fuja do nosso controle.

Com informações de The New York Times

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!