(Imagem: Pedro Spadoni via DALL-E/Olhar Digital)
Intel, Google, Microsoft, Meta e outras big techs estão montando um novo grupo da indústria, o Ultra Accelerator Link (UALink) Promoter Group. E o objetivo deste supergrupo é orientar o desenvolvimento dos componentes que conectam chips aceleradores de inteligência artificial (IA) em data centers.
Anunciado na quarta-feira (29), o UALink Promoter Group – que também inclui AMD (mas não Arm) e Hewlett Packard Enterprise (a HP) – propõe um novo padrão industrial para conectar os chips aceleradores de IA encontrados num número crescente de servidores.
Explicando: aceleradores de IA são chips que variam de GPUs a soluções customizadas para acelerar o treinamento, ajuste fino e execução de modelos de IA.
“A indústria precisa de um padrão que permita que a inovação avance rapidamente, sem ser prejudicada por qualquer empresa individual”, disse Forrest Norrod, gerente de soluções de data center da AMD, numa coletiva de imprensa.
Leia mais:
A primeira versão do padrão proposto, o UALink 1.0, conectará até 1.024 aceleradores de IA (apenas GPUs) num único “pod” de computação – o grupo define um pod como um ou vários racks num servidor.
O UALink 1.0, baseado em “padrões abertos”, incluindo o Infinity Fabric da AMD, permitirá cargas e armazenamentos diretos entre a memória conectada aos aceleradores de IA e aumentará a velocidade enquanto reduz a latência de transferência de dados em comparação com as especificações de interconexão existentes, de acordo com o UALink Promoter Group.
O grupo afirma que criará um consórcio, o UALink Consortium, no terceiro trimestre de 2024 para supervisionar o desenvolvimento da especificação UALink daqui em diante.
O UALink 1.0 será disponibilizado aproximadamente ao mesmo tempo para as empresas que se juntarem ao consórcio, com uma especificação atualizada de maior largura de banda, UALink 1.1, prevista para chegar no quarto trimestre de 2024.
Os primeiros produtos UALink serão lançados “nos próximos dois anos,” disse Norrod.
Uma ausência notável entre os membros deste supergrupo é a Nvidia, que é de longe a maior produtora de aceleradores de IA, com uma estimativa de 80% a 95% do mercado.
A Nvidia oferece sua própria tecnologia de interconexão proprietária para conectar GPUs num servidor de data center. E opera a partir de uma posição de enorme força e influência.
Assim, os maiores beneficiários do UALink – além da AMD e Intel – parecem ser Microsoft, Meta e Google. Juntas, essas empresas gastaram bilhões de dólares em GPUs da Nvidia para alimentar suas nuvens e treinar seus modelos de IA em constante crescimento.
Em suma, agora essas big techs buscam se libertar de um fornecedor que veem como dominador preocupante no ecossistema de hardware de IA.
Esta post foi modificado pela última vez em 30 de maio de 2024 12:05