IA inspirada no cérebro consegue simular atividade neural, diz estudo

Alterações estruturais geraram padrões semelhantes aos de humanos e primatas, mesmo sem exposição prévia a dados
Por Leandro Costa Criscuolo, editado por Layse Ventura 02/12/2025 07h04
ia cerebral
Imagem: Peshkova/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Sistemas de inteligência artificial projetados com estruturas mais próximas das do cérebro humano podem reproduzir padrões de atividade neural antes de qualquer fase de treinamento.

É o que aponta uma pesquisa do mês passado da Universidade Johns Hopkins, publicada na Nature Machine Intelligence, que desafia o modelo dominante de desenvolvimento de IA baseado em volumes massivos de dados e poder computacional.

cérebro humano
Estudo indica que o “segredo” da IA pode estar no desenho — não nos dados (Imagem: Andrii Shyp/iStock)

Arquitetura antes dos dados

  • Segundo o autor principal, Mick Bonner, professor-assistente de ciências cognitivas, o setor de IA tem avançado priorizando modelos gigantescos, treinados com imensos conjuntos de dados e em centros de computação de escala industrial.
  • “Enquanto isso, humanos aprendem a ver usando pouquíssimos dados”, afirmou. Para Bonner, arquiteturas mais parecidas com as do cérebro colocam os sistemas de IA em “um ponto de partida vantajoso”.
  • A equipe comparou três arquiteturas amplamente usadas no desenvolvimento de IA: transformers, redes totalmente conectadas e redes convolucionais.
  • A partir dessas bases, os pesquisadores criaram dezenas de variações, ajustando cada desenho estrutural.

Leia mais:

inteligencia artificial
Achado pode reduzir custos bilionários e o consumo energético do treinamento de modelos atuais (Imagem: Anggalih Prasetya/Shutterstock)

Redes convolucionais se aproximam mais do cérebro

Ao expor esses modelos não treinados a imagens de objetos, pessoas e animais, os cientistas analisaram como suas respostas se aproximavam da atividade neural observada em humanos e primatas nas mesmas condições.

Enquanto transformers e redes totalmente conectadas pouco mudaram mesmo com o aumento no número de neurônios artificiais, as redes convolucionais modificadas geraram padrões mais semelhantes aos do cérebro.

Segundo o estudo, essas redes convolucionais não treinadas rivalizaram o desempenho de sistemas convencionais que exigem milhões ou bilhões de imagens para aprender. A descoberta reforça a hipótese de que a arquitetura pode ser mais determinante do que o tamanho dos dados.

A equipe agora trabalha no desenvolvimento de algoritmos de aprendizagem inspirados na biologia, capazes de apoiar um novo modelo de deep learning.

Novo estudo desafia modelo atual de IA e mostra vantagem de arquiteturas “biológicas” – Imagem: Suri Studio/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.