No início do ano passado, a Nvidia enfrentou uma crescente ameaça à medida que o campo da inteligência artificial (IA) começava a mudar, com foco maior na operação dos modelos, ou “inferência”, em vez de treiná-los, o que favorecia seus concorrentes, como a AMD.
No entanto, um artigo do Wall Street Journal explica como a Nvidia se preparou para essa mudança e lançou seus chips Blackwell, projetados para maximizar a inferência, com mais memória e capacidade de processamento.
Esses chips trouxeram “ganhos revolucionários” no desempenho da IA, superando o treinamento.
Leia mais:
- Como atualizar drivers de placas de vídeo Nvidia [2 modos]
- O que é e para que serve o GeForce Experience?
- Nvidia diz qual produto deve ser o grande beneficiado pela IA

O sucesso da Nvidia foi refletido em seu último relatório trimestral, com lucros e vendas acima das expectativas. A inferência, que envolve o raciocínio passo a passo dos modelos de IA, tornou-se um foco central, com a empresa projetando seus chips Blackwell com esse objetivo.
Apesar de sua liderança, a Nvidia enfrenta forte concorrência de empresas como OpenAI, Google e a startup DeepSeek, que em janeiro gerou preocupações ao desenvolver modelos de IA mais eficientes, exigindo menos chips da Nvidia.
Manter a liderança será cada vez mais difícil
- Embora Huang minimizasse a ameaça da DeepSeek, a Nvidia ainda enfrenta desafios, com concorrentes como a Cerebras e a Groq ganhando espaço.
- Empresas como a AMD também competem no mercado de inferência, e grandes empresas de tecnologia estão criando seus próprios chips especializados.
- Alguns analistas acreditam que a Nvidia precisará desenvolver chips ainda mais especializados para manter sua posição de liderança.
Huang, no entanto, acredita que a demanda por poder de computação continuará a crescer, com a inferência e o raciocínio digital se tornando cada vez mais exigentes. Ele prevê que, no futuro, os modelos de IA podem precisar de milhares ou até milhões de vezes mais poder de computação.
