Pesquisadores brasileiros criam método para tornar a IA mais acessível

Pesquisadores mostram abordagem que reduz em mais de 90% o custo computacional para analisar LLMs, como GPT e Llama
Por Leandro Costa Criscuolo, editado por Rodrigo Mozelli 24/12/2025 08h40
llm-scaled-1-1920x1080
Imagem: FAMILY STOCK/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Grandes modelos de linguagem (LLMs, na sigla em inglês), como GPT e Llama, estão no centro dos avanços mais recentes da inteligência artificial (IA). No entanto, entender como esses sistemas tomam decisões — e garantir que sejam confiáveis — continua sendo um desafio.

Ofertas

Parte do problema está no alto custo computacional necessário para analisar, testar e ajustar o comportamento desses modelos em escala. Contudo, pesquisadores da Universidade de Manchester (Inglaterra) afirmam ter dado um passo importante para superar essa limitação.

Nova técnica promete tornar grandes modelos de IA mais explicáveis e baratos (Imagem: Ebru-Omer/Shutterstock)

Liderada pelos cientistas brasileiros Danilo Carvalho e André Freitas, a equipe desenvolveu duas novas estruturas de software, chamadas LangVAE e LangSpace, que reduzem drasticamente o consumo de hardware e energia necessários para estudar e controlar LLMs.

Os resultados foram divulgados em um artigo publicado no repositório científico arXiv.

Linguagem da IA compactada e controle geométrico

  • A nova abordagem cria representações compactadas da linguagem gerada pelos próprios modelos de IA.
  • Em vez de modificar diretamente os LLMs, os pesquisadores tratam seus padrões internos de linguagem como estruturas geométricas — pontos, distâncias e formas em um espaço matemático que pode ser medido, comparado e ajustado.
  • Isso permite interpretar e influenciar o comportamento dos modelos usando técnicas muito mais eficientes do que as atuais.
  • Segundo os autores, o método reduz o uso de recursos computacionais em mais de 90% quando comparado a abordagens tradicionais de análise e controle de LLMs.

Técnica reduz barreiras de entrada e acelera estudos sobre comportamento de grandes modelos (Imagem: gguy/Shutterstock)

Leia mais:

Impacto para pesquisa, indústria e meio ambiente

O ganho de eficiência pode ampliar significativamente o acesso à pesquisa em IA explicável. Com custos menores, mais universidades, startups e equipes industriais poderão investigar como esses sistemas funcionam e como torná-los mais previsíveis e seguros.

“Reduzimos de forma significativa as barreiras de entrada para o desenvolvimento e a experimentação de modelos de IA explicáveis e controláveis”, afirma Danilo Carvalho.

Segundo ele, a técnica também pode diminuir o impacto ambiental da pesquisa em IA e acelerar o uso de modelos confiáveis em aplicações críticas, como a área da saúde.

Pesquisa reduz custos e amplia acesso a técnicas de explicabilidade em grandes modelos (Imagem: SuPatMaN/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.