Laboratório da Microsoft testa agentes de IA e descobre falhas alarmantes

Experimentos indicam que sistemas de IA ficam sobrecarregados com excesso de opções e precisam de ajuda até para trabalhar em equipe
Por Leandro Costa Criscuolo, editado por Layse Ventura 05/11/2025 20h57
Logo da Microsoft ao fundo e à frente em um smartphone
Imagem: Below the Sky/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Pesquisadores da Microsoft apresentaram um novo ambiente de simulação voltado a estudar o desempenho e as falhas de agentes de inteligência artificial (IA).

Batizado de “Magentic Marketplace”, o sistema recria um mercado virtual no qual agentes automatizados interagem entre si em tarefas cotidianas, como pedir refeições ou negociar serviços.

agentes de ia
Novo ambiente de simulação mostra que modelos populares, como GPT e Gemini, ainda podem ser facilmente manipulados e têm dificuldade em colaborar – Imagem: Mer_Studio/Shutterstock

Descobertas do estudo

  • O estudo, desenvolvido em parceria com a Universidade Estadual do Arizona, nos Estados Undiso, revelou que os modelos atuais ainda são facilmente manipuláveis e enfrentam dificuldades ao lidar com múltiplas opções ou tarefas cooperativas.
  • Nos testes, 100 agentes do lado do cliente interagiram com 300 agentes representando empresas, em um cenário aberto a novas pesquisas.
  • O código-fonte do marketplace é público e pode ser usado por outros grupos para reproduzir os resultados.

Leia mais:

Fachada de prédio da Microsoft
Agentes de IA da Microsoft tropeçam em simulação de mercado – Imagem: nitpicker/Shutterstock

Limites da colaboração entre inteligências artificiais

Segundo Ece Kamar, diretora do Laboratório de Fronteiras de IA da Microsoft Research, a iniciativa busca entender “como o mundo vai mudar com agentes colaborando, conversando e negociando entre si”. Mas os resultados iniciais indicam que ainda há um longo caminho até que essas interações ocorram de forma eficiente.

Modelos como GPT-4o, GPT-5 e Gemini-2.5-Flash apresentaram queda de desempenho quando expostos a muitas opções simultâneas, ficando “sobrecarregados”, segundo Kamar. Além disso, mostraram falhas ao cooperar em equipe, necessitando instruções explícitas para dividir tarefas.

“Esperamos que esses modelos tenham capacidades colaborativas por padrão – mas ainda não é o que observamos”, concluiu a pesquisadora.

Agente de IA.
Em ambiente virtual, modelos como GPT-5 e Gemini-2.5-Flash mostraram dificuldade para decidir, negociar e cooperar entre si (Imagem: GamePixel/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.