Siga o Olhar Digital no Google Discover
2025 começou cercado de expectativa. Depois do boom da inteligência artificial (IA) generativa, o discurso dominante passou a ser: este seria o ano dos agentes de IA (sistemas pensados para ir além da conversa e assumir tarefas de forma autônoma).
Ofertas
Por: R$ 26,90
Por: R$ 49,80
Por: R$ 194,99
Por: R$ 28,31
Por: R$ 35,90
Por: R$ 499,90
Por: R$ 144,90
Por: R$ 412,69
Por: R$ 592,00
Por: R$ 3.598,94
Por: R$ 499,00
Por: R$ 369,00
Por: R$ 1.616,02
Por: R$ 3.099,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 588,90
Por: R$ 139,99
Por: R$ 473,00
Consultorias, big techs e investidores venderam a ideia de uma nova etapa da automação, com promessas de ganhos rápidos de produtividade e uma transformação profunda no jeito como empresas funcionam.
Alguns meses depois, o tom já não é o mesmo. Embora os agentes tenham saído do laboratório e chegado a ambientes reais, vieram junto custos elevados, falhas difíceis de prever e dúvidas sobre o retorno do investimento. No mercado financeiro, o entusiasmo começou a dividir espaço com alertas sobre excessos e até com a palavra “bolha”.
Entre a promessa de autonomia total e a realidade da implementação, a pergunta que se impõe no fim de 2025 é: qual é o saldo das IAs neste ano? O Olhar Digital te explica.
O ano em que agentes de IA viraram promessa de tudo
No começo de 2025, a indústria de tecnologia passou a tratar os agentes de IA como o próximo grande salto depois dos chatbots. A ideia era simples de explicar e poderosa no discurso: sair de sistemas que apenas respondem perguntas para softwares capazes de agir.

Como? Executando tarefas, coordenando ferramentas e tomando decisões com pouca ou nenhuma intervenção humana. Em relatórios e apresentações, os agentes apareceram como a ponte entre a IA generativa e automação de verdade.
Essa narrativa ganhou força porque parecia resolver um problema real. Após o impacto inicial de ferramentas como o ChatGPT, muitas empresas começaram a perguntar: ok, o que mais?
Os agentes surgiram como resposta: sistemas que poderiam organizar agendas, analisar dados, acionar outros softwares, negociar compras ou tocar processos inteiros sozinhos. Não por acaso, consultorias passaram a tratá-los como peça central da próxima onda de transformação digital.
Relatórios publicados no início do ano ajudaram a consolidar esse enquadramento. A McKinsey, por exemplo, colocou os agentes no centro das tendências tecnológicas de 2025, descrevendo um cenário no qual a IA deixaria de ser apenas assistente para se tornar executora.
Além disso, análises da IBM reforçaram a ideia de que a combinação entre modelos de linguagem, ferramentas externas e regras de negócio abriria caminho para sistemas muito mais autônomos do que os vistos até então.
O resultado foi uma expectativa inflada. No começo do ano, “agentic AI” virou sinônimo de eficiência, escala e redução de custos. Muitas vezes sem que ficasse claro o quão distante essas promessas estavam da realidade operacional.
A partir daí, a questão deixou de ser o que os agentes prometiam fazer e passou a ser o que eles conseguiam entregar.
Onde os agentes entregaram valor de verdade
Passado o impacto inicial, a adoção dos agentes de IA começou a mostrar resultados mais concretos, ainda que bem menos espetaculares do que o discurso sugeria.
Em vez de sistemas amplamente autônomos, o que avançou foram aplicações focadas em tarefas com escopo bem definido e regras claras. Atendimento ao cliente, triagem de informações, apoio à análise de dados e automação de rotinas administrativas concentraram a maior parte dos casos bem-sucedidos.
Esses usos funcionaram sobretudo em contextos bem delimitados. “Na prática, os agentes avançaram para uma autonomia parcial. Eles já conseguem planejar, executar e monitorar fluxos de trabalho dentro de limites bem definidos, mas ainda dependem de validação humana para decisões críticas, especialmente em áreas reguladas”, afirma a professora Alessandra Montini, diretora do LabData da FIA Business School, ao Olhar Digital.
Relatórios da IBM apontam que, nesses cenários, a combinação entre modelos de linguagem e ferramentas externas trouxe ganhos reais de eficiência, reduzindo tempo de execução e carga operacional sobre equipes humanas.
Para empresas que fornecem infraestrutura para IA, o avanço dos agentes em 2025 indicou que a tecnologia não ficou restrita ao discurso. “Isso só me mostra como as pessoas estão dispostas a adotar essa ferramenta e que isso não ‘ficou só no hype’”, disse Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina, em entrevista ao Olhar Digital.

Outro exemplo bem visível dessa adoção controlada apareceu nos navegadores com IA, que decolaram em 2025. Browsers como Dia, Comet (Perplexity) e Atlas (ChatGPT) têm agentes de IA capazes de resumir páginas, explicar conteúdos e organizar informações diretamente durante a navegação.
Testes feitos por veículos como The New York Times, The Verge e MIT Technology Review mostram que esses recursos funcionam melhor quando atuam como apoio (ou seja, ajudando o usuário a interagir com a web) e não quando tentam assumir decisões complexas por conta própria.
O padrão de agência limitada apareceu em interfaces além dos navegadores. No apagar das luzes de 2025, a OpenAI lançou uma loja de aplicativos dentro do ChatGPT, permitindo que o chatbot se conecte a serviços como Spotify, Adobe e aplicativos de delivery, por exemplo.

Na prática, a IA passa a executar ações em plataformas externas, mas dentro de um ecossistema fechado, com permissões definidas e sem autonomia irrestrita. O modelo reforça a leitura de que os usos mais bem-sucedidos da IA em 2025 foram aqueles em que a agência existe, mas é cuidadosamente delimitada.
Estudos e análises citados pela Fortune reforçam essa ideia. Empresas que conseguiram extrair valor dos agentes foram justamente as que evitaram promessas amplas de autonomia e apostaram em integrações graduais.
Em vez de delegar decisões complexas à IA, companhias usaram os agentes como executores de fluxos já bem mapeados.
“Agentes funcionam melhor em ambientes com dados estruturados e regras claras. Quando lidam com tarefas ambíguas ou estratégicas, que exigem julgamento humano, o risco de erro cresce rapidamente”, disse Montini.
Na visão da Deloitte, esse padrão explica por que ganhos observados em 2025 foram incrementais, não revolucionários. Os agentes entregaram valor quando tratados como ferramentas especializadas. E não como “funcionários digitais” capazes de operar sozinhos.
“O foco deixou de estar apenas em soluções genéricas ou em capacidade computacional bruta e passou a se concentrar […] em IAs altamente personalizadas”, observou Aguiar.
A distância entre o que funcionou e o que foi prometido no início de 2025 deixou claro que a autonomia total ainda está longe de ser regra. E talvez nunca tenha sido um objetivo realista.
Quando autonomia da IA vira risco (e custo)
À medida que empresas tentaram ampliar o grau de autonomia dos agentes de IA, os problemas começaram a aparecer com mais nitidez.
Diferentemente de um chatbot que erra uma resposta, um agente pode tomar ações erradas: acionar sistemas indevidos, executar comandos fora de contexto ou gerar efeitos em cadeia difíceis de desfazer.
“Autonomia total ainda é arriscada sem uma governança robusta. Sem controles claros, agentes podem executar ações indevidas, o que amplia riscos de segurança, compliance e custo”, explicou a professora Alessandra.
Relatos reunidos com o passar do ano mostram que o desafio deixou de ser apenas técnico e passou a envolver confiança. Até que ponto é seguro deixar a IA agir sozinha?
O avanço desses agentes para o uso cotidiano também expôs riscos difíceis de ignorar. Em dezembro, pesquisadores demonstraram que o Comet, por exemplo, podia ser induzido por um simples e-mail a apagar arquivos inteiros do Google Drive de um usuário, sem qualquer clique.

O episódio ilustra o problema da chamada agência excessiva. Quando sistemas recebem permissões amplas e interpretam linguagem natural de forma literal, erros deixam de ser apenas respostas equivocadas e passam a ter efeitos destrutivos.
Esse risco obrigou as empresas a manter um elemento central que o hype inicial minimizava: a supervisão humana. Na prática, muitos projetos precisaram recuar para modelos híbridos, nos quais agentes operam sob monitoramento constante, com permissões limitadas e trilhas de auditoria.
Análises da Deloitte e do site ZDNet indicam que, quanto mais amplo o escopo de atuação do agente, maior a necessidade de controles, regras e intervenções manuais. Ou seja: o oposto da promessa de automação plena.
O problema é que impor limites custa dinheiro. E, ao longo de 2025, ficou claro que operar agentes de IA em escala não é barato.
Além do custo computacional, entram na conta ajustes em sistemas e manutenção contínua. Em muitos casos, o esforço para “domar” a autonomia da IA passou a disputar recursos com outras iniciativas de inovação.
Esse descompasso entre expectativa e realidade começou a aparecer também no mercado financeiro. Uma reportagem da Reuters, por exemplo, mostra investidores questionando se o retorno justifica o volume de capital despejado em IA, especialmente quando os ganhos são difíceis de medir e demoram a se materializar.
Para muitas empresas, provar o ROI (sigla em inglês para “retorno sobre investimento”) dos agentes se tornou tão complexo quanto desenvolvê-los. Foi nesse ponto que a narrativa mudou: a discussão deixou de ser sobre o que a IA poderia fazer e passou a girar em torno do que ela vale. E a que custo. “Você precisa entender bem sua necessidade e o tamanho da sua demanda”, disse Aguiar.
A diretora do LabData da FIA Business School acrescentou o seguinte: “Os ganhos existem, mas variam muito conforme a maturidade da implementação. Muitas empresas ainda não conseguem medir o retorno real, o que alimenta a sensação de frustração.”
Bolha ou ajuste de rota?
Com esse pano de fundo, a palavra “bolha” passou a circular com mais frequência no segundo semestre. Ainda segundo a Reuters, investidores e analistas tentam entender se o avanço acelerado da IA (e, em especial, dos agentes) estaria repetindo padrões de outros ciclos de euforia tecnológica.

“Quando o mercado fala em bolha, está olhando muito mais para uma inflação de expectativas do que para um limite técnico imediato. O ritmo das promessas superou a velocidade da adoção prática”, avaliou a professora.
Já o diretor da divisão Enterprise da Nvidia acrescentou o seguinte: “O equívoco está em tratar a inteligência artificial como um produto de moda”. Para Aguiar, a IA é uma ferramenta de “caráter transversal”.
A leitura dominante, porém, é menos dramática do que o termo sugere: não há sinais de colapso iminente, mas sim de reprecificação e revisão de expectativas.
Instituições internacionais e análises como as do Fórum Econômico Mundial reforçam esse diagnóstico. O debate deixou de girar em torno de quando a IA vai “mudar tudo” e passou a focar em como integrá-la de forma sustentável.
Em vez de abandonar a tecnologia, empresas e investidores parecem mais preocupados em separar promessas infladas de aplicações que realmente entregam valor.
Assim, o saldo de 2025 aponta menos para fracasso e mais para amadurecimento forçado. No fim, os agentes de IA não desapareceram, nem perderam relevância, mas deixaram de ser tratados como solução universal.
Além disso, o foco migrou do discurso de autonomia total para questões mais prosaicas (engenharia, integração, governança e custo). E a IA continua avançando, só que agora com menos magia e mais trabalho invisível nos bastidores.
Leia mais:
- 2025 marca a revolução dos wearables com IA
- O que é superinteligência artificial? Veja como ela pode mudar o futuro da humanidade
- 5 doenças que a inteligência artificial já auxilia no diagnóstico
“O saldo de 2025 é mais positivo do que frustrante. A frustração vem menos de limites da tecnologia e mais da expectativa de autonomia total e retorno imediato”, resumiu Montini.
Esse amadurecimento forçado também tem dimensão humana. Numa leitura mais ampla sobre o impacto da IA, em entrevista ao Olhar Digital, o educador e analista de software Maurício Pinheiro observa que a tecnologia expôs nossos próprios limites e excessos, ao devolver “a média estatística exata do pensamento humano”.