Siga o Olhar Digital no Google Discover
No início do ano passado, a Nvidia enfrentou uma crescente ameaça à medida que o campo da inteligência artificial (IA) começava a mudar, com foco maior na operação dos modelos, ou “inferência”, em vez de treiná-los, o que favorecia seus concorrentes, como a AMD.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 200,29
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
No entanto, um artigo do Wall Street Journal explica como a Nvidia se preparou para essa mudança e lançou seus chips Blackwell, projetados para maximizar a inferência, com mais memória e capacidade de processamento.
Esses chips trouxeram “ganhos revolucionários” no desempenho da IA, superando o treinamento.
Leia mais:
- Como atualizar drivers de placas de vídeo Nvidia [2 modos]
- O que é e para que serve o GeForce Experience?
- Nvidia diz qual produto deve ser o grande beneficiado pela IA

O sucesso da Nvidia foi refletido em seu último relatório trimestral, com lucros e vendas acima das expectativas. A inferência, que envolve o raciocínio passo a passo dos modelos de IA, tornou-se um foco central, com a empresa projetando seus chips Blackwell com esse objetivo.
Apesar de sua liderança, a Nvidia enfrenta forte concorrência de empresas como OpenAI, Google e a startup DeepSeek, que em janeiro gerou preocupações ao desenvolver modelos de IA mais eficientes, exigindo menos chips da Nvidia.
Manter a liderança será cada vez mais difícil
- Embora Huang minimizasse a ameaça da DeepSeek, a Nvidia ainda enfrenta desafios, com concorrentes como a Cerebras e a Groq ganhando espaço.
- Empresas como a AMD também competem no mercado de inferência, e grandes empresas de tecnologia estão criando seus próprios chips especializados.
- Alguns analistas acreditam que a Nvidia precisará desenvolver chips ainda mais especializados para manter sua posição de liderança.
Huang, no entanto, acredita que a demanda por poder de computação continuará a crescer, com a inferência e o raciocínio digital se tornando cada vez mais exigentes. Ele prevê que, no futuro, os modelos de IA podem precisar de milhares ou até milhões de vezes mais poder de computação.
