A Nvidia revelou nesta segunda-feira (13) o H200, uma nova GPU (unidade de processamento gráfico) projetada para trabalhos com inteligência artificial capaz de lidar com tarefas intensivas e IA generativa, a mesma tecnologia por trás do ChatGPT.
Como é o chip H200 da Nvidia
- Se trata de uma atualização do H100, o chip que a OpenAI usou para treinar seu modelo de linguagem mais avançado, o GPT-4.
- O H200 é o primeiro a usar memória HBM3e, mais nova e mais rápida.
- Isso eleva a largura de banda de memória da GPU para 4,8 terabytes por segundo, contra 3,35 terabytes por segundo do H100.
- A capacidade total de memória também sobre para 141 GB, contra os 80 GB do antecessor.
- A memória extra permitirá lidar mais rápido com tarefas muito pesadas como treinar modelos de IA para gerar texto e imagens, por exemplo.
- Segundo a Nvidia, o novo chip é quase duas vezes mais rápido que o H100 em testes com o Lhama 2, o modelo de linguagem da Meta.
A integração de memória HBM mais rápida e extensa serve para acelerar o desempenho em tarefas computacionalmente exigentes, incluindo modelos generativos de IA e aplicações [de computação de alto desempenho]
Ian Buck, vice-presidente de produtos de computação de alto desempenho da Nvidia, na apresentação oficial do produto
Leia mais:
- Guerra dos chips: Nvidia já tem solução para contornar restrições dos EUA
- Novas restrições dos EUA podem beneficiar a China; entenda
- Visando Nvidia, EUA endurecem restrições
Lançamento
O lançamento do H200 está previsto para o segundo trimestre de 2024. A Nvidia disse que a nova GPU será compatível com o H100, ou seja, empresas de IA que usam o modelo anterior, não precisarão alterar sistemas de servidor ou software para usar o novo chip.
As divisões de nuvem da Amazon (AWS), Google, Microsoft (Azure) e Oracle estarão entre os primeiros a contar com as novas GPUs, segundo o The Verge.
Preço
Segundo estimativas do banco de investimentos Raymond James, o H100 custava até US$ 40 mil (Via: CNBC). É preciso ter milhares trabalhando juntos para criar e treinar modelos de IA. Ainda não há notícias sobre valor e disponibilidade do H200 (Via: CNBC).
Além do salto no interesse por chips da Nvidia, o boom da IA foi um dos principais fatores que gerou uma valorização anual de 230% nas ações da empresa até aqui. Para o terceiro trimestre fiscal, a gigante dos chips espera obter US$ 16 bilhões em receita, 170% a mais que o mesmo período em 2022.
O anúncio também chega no momento em que empresas de IA continuam em busca de chips como o H100, ainda considerado uma das melhores opões para processar enormes quantidades de dados para treinar e operar ferramentas de IA.
A Nvidia inclusive planeja triplicar a produção do H100 em 2024, segundo o Financial Times. A meta é produzir até 2 milhões de unidades do chip no próximo ano (em 2023 foram cerca de 500.000).