A Microsoft confirmou rumores e anunciou seu próprio chip de inteligência artificial (IA) personalizado, chamado Azure Maia, que pode ser usado para treinar grandes modelos de linguagem e evitar a dependência custosa da Nvidia.

Além disso, a empresa também desenvolveu sua própria CPU baseada em Arm, chamada Azure Cobalt, para uso em cargas de trabalho em nuvem. Ambos os chips foram projetados para alimentar os data centers do Azure e preparar a empresa e seus clientes empresariais para um futuro cheio de IA.

publicidade

Leia mais:

Azure Maia e Cobalt

  • O chip de IA Azure Maia será usado para executar cargas de trabalho de IA em nuvem, como treinamento de modelos de linguagem e inferência;
  • Ele será utilizado para alimentar as maiores cargas de trabalho de IA da empresa no Azure, incluindo partes da parceria multibilionária com a OpenAI;
  • A Microsoft colaborou com a OpenAI no design e nos testes do Maia;
  • A nova CPU Azure Cobalt, por sua vez, é um chip de 128 núcleos baseado no Arm Neoverse CSS e personalizado para a Microsoft;
  • Ela é projetada para alimentar serviços em nuvem gerais no Azure.

Ambos os chips são construídos internamente pela Microsoft, juntamente com uma revisão completa de sua pilha de servidores em nuvem para otimizar desempenho, energia e custo.

publicidade

“Estamos repensando a infraestrutura em nuvem para a era da IA e otimizando literalmente cada camada dessa infraestrutura”, disse Rani Borkar, chefe de infraestrutura e sistemas de hardware do Azure na Microsoft, em entrevista ao The Verge.

A empresa está reimaginando a infraestrutura em nuvem para a era da IA, otimizando cada camada dessa infraestrutura. O Azure Cobalt CPU está sendo testado em cargas de trabalho, como Microsoft Teams e SQL Server, com planos de disponibilizar máquinas virtuais para clientes no próximo ano.

publicidade

Em 2017, começamos a arquitetar a pilha de hardware em nuvem e iniciamos essa jornada, nos colocando no caminho certo para construir nossos novos chips personalizados.

Rani Borkar, chefe de infraestrutura e sistemas de hardware do Azure na Microsoft, em entrevista ao The Verge

Servidor do Maia 100 e seu sistema de refrigeração (Imagem Divulgação/Microsoft)

Chips personalizados para era da IA

O Maia 100, fabricado em processo de 5 nanômetros pela TSMC, possui 105 bilhões de transistores e permite treinamento e inferência de modelos mais rápidos.

publicidade

O Maia é o primeiro processador de servidor completo com refrigeração líquida construído pela Microsoft. O objetivo aqui era permitir maior densidade de servidores com maior eficiência. Como estamos reimaginando toda a pilha, pensamos propositalmente em cada camada, para que esses sistemas realmente se ajustem à nossa atual área ocupada pelo data center.

Rani Borkar, chefe de infraestrutura e sistemas de hardware do Azure na Microsoft, em entrevista ao The Verge

A Microsoft está trabalhando em conjunto com outras empresas, como AMD, Arm, Intel, Nvidia, Meta e Qualcomm, para padronizar a próxima geração de formatos de dados para modelos de IA.

Estamos repensando a infraestrutura em nuvem para a era da IA e otimizando literalmente cada camada dessa infraestrutura.

Rani Borkar, chefe de infraestrutura e sistemas de hardware do Azure na Microsoft, em entrevista ao The Verge

“Nossos testes iniciais mostram que nosso desempenho é até 40% melhor do que o que existe atualmente em nossos data centers que usam servidores comerciais Arm, disse Borkar.

A Microsoft não divulgou especificações completas ou benchmarks de desempenho para os chips Maia e Cobalt. No entanto, os testes iniciais mostraram que o desempenho do Cobalt é até 40% melhor do que os servidores Arm comerciais atualmente utilizados pela Microsoft no Azure. A empresa também está construindo servidores refrigerados a líquido para acomodar o Maia, aumentando a densidade e a eficiência dos servidores.

A Microsoft destaca que esses chips personalizados complementam os fornecedores atuais, como a Nvidia e a AMD, oferecendo escolha e diversificação à sua infraestrutura em nuvem. A empresa planeja lançar versões aprimoradas dos chips Maia e Cobalt no futuro, mas não divulgou detalhes sobre suas estratégias de lançamento.

Ficamos entusiasmados quando a Microsoft compartilhou pela primeira vez seus designs para o chip Maia e trabalhamos juntos para refiná-lo e testá-lo com nossos modelos. A arquitetura de IA ponta a ponta do Azure, agora otimizada até o silício com o Maia, abre caminho para treinar modelos mais capazes e tornar esses modelos mais baratos para nossos clientes.

Sam Altman, CEO da OpenAI, em entrevista ao The Verge

A velocidade com que a Microsoft implementará esses chips será fundamental para acelerar a execução de suas ambições de IA e poderá impactar os preços dos serviços em nuvem.

Pensamos muito não apenas em torná-lo de alto desempenho, mas, também, em garantir que estamos atentos ao gerenciamento de energia. Fizemos algumas escolhas de design muito intencionais, incluindo a capacidade de controlar o desempenho e o consumo de energia por núcleo e em cada máquina virtual.

Rani Borkar, chefe de infraestrutura e sistemas de hardware do Azure na Microsoft, falando sobre o Azure Cobalt, em entrevista ao The Verge

Preços ainda não divulgados

Embora a Microsoft não tenha divulgado informações sobre os preços dos novos servidores, é importante mencionar que a empresa lançou silenciosamente o Copilot para Microsoft 365 com taxa adicional de US$ 30 (R$ 145,90) por usuário por mês. O Copilot para Microsoft 365 é limitado aos maiores clientes da Microsoft no momento.

A implementação desses novos chips poderá ajudar a equilibrar a demanda por chips de IA e reduzir os custos para os clientes de serviços em nuvem da Microsoft. Tanto o Maia quanto o Cobalt desembarcam oficialmente em 2024.