A Nvidia revelou nesta segunda-feira (13) o H200, uma nova GPU (unidade de processamento gráfico) projetada para trabalhos com inteligência artificial capaz de lidar com tarefas intensivas e IA generativa, a mesma tecnologia por trás do ChatGPT.

Como é o chip H200 da Nvidia

  • Se trata de uma atualização do H100, o chip que a OpenAI usou para treinar seu modelo de linguagem mais avançado, o GPT-4.
  • O H200 é o primeiro a usar memória HBM3e, mais nova e mais rápida. 
  • Isso eleva a largura de banda de memória da GPU para 4,8 terabytes por segundo, contra 3,35 terabytes por segundo do H100. 
  • A capacidade total de memória também sobre para 141 GB, contra os 80 GB do antecessor.
  • A memória extra permitirá lidar mais rápido com tarefas muito pesadas como treinar modelos de IA para gerar texto e imagens, por exemplo.
  • Segundo a Nvidia, o novo chip é quase duas vezes mais rápido que o H100 em testes com o Lhama 2, o modelo de linguagem da Meta.

A integração de memória HBM mais rápida e extensa serve para acelerar o desempenho em tarefas computacionalmente exigentes, incluindo modelos generativos de IA e aplicações [de computação de alto desempenho]

Ian Buck, vice-presidente de produtos de computação de alto desempenho da Nvidia, na apresentação oficial do produto

Leia mais:

publicidade

Lançamento

O lançamento do H200 está previsto para o segundo trimestre de 2024. A Nvidia disse que a nova GPU será compatível com o H100, ou seja, empresas de IA que usam o modelo anterior, não precisarão alterar sistemas de servidor ou software para usar o novo chip. 

As divisões de nuvem da Amazon (AWS), Google, Microsoft (Azure) e Oracle estarão entre os primeiros a contar com as novas GPUs, segundo o The Verge.

publicidade

Preço

Segundo estimativas do banco de investimentos Raymond James, o H100 custava até US$ 40 mil (Via: CNBC). É preciso ter milhares trabalhando juntos para criar e treinar modelos de IA. Ainda não há notícias sobre valor e disponibilidade do H200 (Via: CNBC).

Além do salto no interesse por chips da Nvidia, o boom da IA foi um dos principais fatores que gerou uma valorização anual de 230% nas ações da empresa até aqui. Para o terceiro trimestre fiscal, a gigante dos chips espera obter US$ 16 bilhões em receita, 170% a mais que o mesmo período em 2022.

publicidade

O anúncio também chega no momento em que empresas de IA continuam em busca de chips como o H100, ainda considerado uma das melhores opões para processar enormes quantidades de dados para treinar e operar ferramentas de IA.

A Nvidia inclusive planeja triplicar a produção do H100 em 2024, segundo o Financial Times. A meta é produzir até 2 milhões de unidades do chip no próximo ano (em 2023 foram cerca de 500.000).