A Nvidia anunciou nesta segunda-feira (12) um novo processador para uso em data centers e aplicações de inteligência artificial. O chip foi batizado de “Grace” em homenagem a Grace Hopper, pioneira da computação.

Segundo a empresa, que não divulgou muitas especificações técnicas, o chip terá “dez vezes o desempenho dos servidores mais rápidos da atualidade nas tarefas mais complexas de IA e computação de alto desempenho”.

Organizações como o Centro Nacional de Supercomputação da Suíça (CSCS) e o Laboratório Nacional de Los Alamos, nos EUA, já expressaram interesse em construir máquinas com o novo chip.

O processador Grace será construído com base em uma futura iteração da arquitetura Neoverse, da ARM, empresa que a Nvidia está em negociação para adquirir por US$ 40 bilhões. O negócio está sob investigação da União Europeia, preocupada com um monopólio, e enfrenta protestos de fabricantes chinesas, além de gigantes como a Microsoft, Qualcomm e Google.

publicidade

A Nvidia já tem presença no mercado de computação de alto desempenho e inteligência artificial, com GPUs especializadas na família Ampere. Mas nem todas as tarefas são limitadas pela GPU e um processador é necessário ao menos para “organizar” os processos em execução. Sob esse ponto de vista, a construção de uma CPU otimizada faz sentido.

Leia mais:

Data center de mesa

Em novembro passado Nvidia anunciou a DGX Station A100, uma estação de trabalho que concentra “o poder de um data center” em uma única máquina, projetada para tarefas que exigem altíssimo desempenho como simulações biológicas ou pesquisa em inteligência artificial.

Equipada com um processador AMD com 64 núcleos (provavelmente um Ryzen Threadripper 3990X CPU), a DGX Station tem 512 GB de RAM e um SSD NVMe de 7,68 Tb. Mas a estrela são as quatro GPUs A100 baseadas na arquitetura Ampere, com 80 GB de RAM (cada), totalizando de 320 GB.

De acordo com a Nvidia, a DGX Station suporta a tecnologia Multi-Instance GPU (MIG), que permite compartimentalizar e virtualizar suas GPUs como 28 instancias separadas, que podem ser acessadas por múltiplos usuários ou alocadas para tarefas de processamento paralelo.

Fonte: The Verge