(Imagem: Yuichiro Chino/Shutterstock)
Apesar do otimismo de líderes da OpenAI, Anthropic e Google, cresce o número de especialistas que duvidam que a inteligência artificial (IA) esteja próxima de atingir a inteligência de nível humano, como mostra o The Wall Street Journal.
Pesquisadores apontam que os modelos atuais de IA não raciocinam como humanos, mas operam a partir de enormes conjuntos de regras práticas, sem construir verdadeiros “modelos de mundo” que envolvam causa e efeito.
Novas pesquisas em interpretabilidade de IA sugerem que os modelos atuais agem como “sacos de heurísticas” – grandes coleções de atalhos para resolver problemas, em vez de raciocinar de maneira flexível como seres humanos.
Esses resultados sugerem que, ao invés de compreender contextos ou adaptar-se a novas situações, as IAs atuais apenas memorizam soluções específicas.
Leia mais:
As limitações estruturais dos modelos explicam a necessidade de grandes volumes de dados e processamento, além da dificuldade de superar certos limites de desempenho.
Isso também pode indicar uma estagnação no avanço da capacidade das IAs atuais, apesar das previsões otimistas que têm sido feitas há décadas.
Mesmo que a tão esperada inteligência artificial geral (IAG) ainda esteja distante, o trabalho em entender essas limitações promete impulsionar o desenvolvimento de sistemas mais confiáveis e eficientes no futuro.
Esta post foi modificado pela última vez em 29 de abril de 2025 21:01