A plataforma Vera Rubin, composta por seis chips Nvidia separados, deve ser lançada ainda este ano, com o dispositivo principal contendo 72 das principais unidades gráficas (GPUs) da empresa e 36 de seus novos processadores centrais (CPUs). Huang mostrou como eles podem ser agrupados em “pods” com mais de 1.000 chips Rubin.
Para obter os novos resultados de desempenho, no entanto, Huang afirmou que os chips Rubin utilizam um tipo proprietário de dados que a empresa espera que o setor em geral adote.
“Foi assim que conseguimos oferecer um aumento tão gigantesco no desempenho, embora tenhamos apenas 1,6 vez o número de transistores”, disse Huang.
Embora a Nvidia ainda domine o mercado de treinamento de modelos de IA, ela enfrenta muito mais concorrência – de rivais tradicionais, como a AMD, bem como de clientes como o Google – na entrega dos frutos desses modelos a centenas de milhões de usuários de chatbots e outras tecnologias de IA.
Grande parte do discurso de Huang se concentrou em como os novos chips funcionarão bem para essa tarefa, incluindo a adição de uma nova camada de tecnologia de armazenagem chamada “armazenamento de memória de contexto”, com o objetivo de ajudar os chatbots a fornecerem respostas mais rápidas a perguntas e conversas longas quando usados por milhões de usuários ao mesmo tempo.
A Nvidia também apresentou uma nova geração de switches de rede com um novo tipo de conexão chamada “co-packaged optics”. A tecnologia, que é fundamental para conectar milhares de máquinas em uma só, compete com as ofertas da Broadcom e da Cisco Systems.












Deixe um comentário