NVIDIA Vera CPU
搜索文档
黄仁勋CES放出大杀器:下一代Rubin架构推理成本降10倍
机器之心· 2026-01-06 08:31
文章核心观点 - 英伟达在CES 2026上发布了下一代全栈AI技术平台,旨在引领计算行业革新,其核心包括全新的Rubin AI超级计算平台、面向自动驾驶的开源视觉-语言-动作模型Alpamayo 1,以及针对物理人工智能(机器人)的全套开源模型与框架 [1][5][33] 下一代AI超级计算平台:Rubin - 推出全新NVIDIA Rubin平台,包含六款协同设计的芯片:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6 Ethernet Switch,目标是构建成本、性能与安全性全面领先的AI超级计算机 [8] - Rubin平台引入五项创新,包括第六代NVLink、Transformer引擎、机密计算、RAS引擎和Vera CPU,其每Token推理成本比前代Blackwell平台低高达10倍,训练MoE模型所需的GPU数量减少4倍 [13] - 平台提供两种主要形态:Vera Rubin NVL72机架级解决方案(集成72个Rubin GPU和36个Vera CPU)和HGX Rubin NVL8服务器主板(通过NVLink连接8个Rubin GPU)[18] - 第六代NVLink每个GPU提供3.6TB/s带宽,Vera Rubin NVL72机架总带宽高达260TB/s;Rubin GPU为AI推理提供50 petaflops的NVFP4计算能力;机架模块化设计使组装维护速度比Blackwell快高达18倍 [17] - Rubin平台已全面投产,基于该平台的产品将于2026年下半年通过合作伙伴上市;首批云服务提供商包括AWS、Google Cloud、微软、OCI及CoreWeave等;服务器合作伙伴包括思科、戴尔、HPE等;Anthropic、Meta、OpenAI等AI实验室计划利用该平台 [19][20] 面向自动驾驶的开源模型与生态:Alpamayo - 发布NVIDIA Alpamayo系列开源AI模型、仿真工具及数据集,旨在加速下一代基于推理的L4级自动驾驶汽车开发 [21][23] - Alpamayo 1是全球首个面向自动驾驶的开源大规模推理视觉语言动作模型,拥有100亿参数,通过视频输入生成行驶轨迹及展示决策逻辑的推理痕迹 [30] - 该模型并非直接车端运行,而是作为“教师模型”供开发者微调和蒸馏,以融入其自动驾驶技术栈;模型权重和推理脚本已开源 [30][31] - 配套开源工具包括:完全开源的端到端高保真仿真框架AlpaSim,以及超过1700小时驾驶数据的物理AI开源数据集,涵盖广泛地域和稀有复杂场景 [31] - 该生态已获得行业支持,包括Lucid、捷豹路虎、Uber等出行领军者;英伟达演示了奔驰新款CLA在旧金山的全自动驾驶,并提及吉利和小米等国内厂商将接入其智能驾驶模型 [32] 物理人工智能与机器人开源生态 - 推出针对物理人工智能的全新开源模型、框架及AI基础设施,旨在加速机器人开发全生命周期,推动构建能快速学习多项任务的通用型专家机器人 [35][36] - 发布多款开源模型,包括:世界模型Cosmos Transfer 2.5与Predict 2.5、推理视觉语言模型Cosmos Reason 2、以及专为人形机器人设计的推理视觉语言动作模型Isaac GR00T N1.6 [40][41] - 发布全新开源框架以简化机器人开发流程:Isaac Lab-Arena框架用于模拟环境中大规模机器人策略评估和基准测试;云原生编排框架OSMO用于统一管理从合成数据生成到测试的工作流 [43][45] - 与Hugging Face合作,将Isaac和GR00T技术集成到LeRobot开源机器人框架中,连接英伟达的200万机器人开发者与Hugging Face的1300万AI构建者 [48] - 多家人形机器人开发商已采用NVIDIA Jetson Thor机器人计算机,包括NEURA Robotics、Richtech Robotics、逐际动力、LG电子、波士顿动力等,以增强机器人导航和操作能力 [50][51]
Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions
Prnewswire· 2026-01-06 07:00
核心观点 - 超微电脑宣布扩大制造产能和液冷能力,并与英伟达合作,旨在率先交付针对英伟达Vera Rubin和Rubin平台优化的数据中心规模解决方案,为客户在下一代AI基础设施中提供决定性竞争优势 [1] - 公司凭借其数据中心构建块解决方案和先进的直接液冷技术,结合美国本土内部设计/制造,加速了下一代液冷AI基础设施的部署时间 [1] 产品与技术合作 - 超微电脑通过与英伟达的加速开发和合作,能够快速部署旗舰产品英伟达Vera Rubin NVL72和英伟达HGX™ Rubin NVL8系统 [1] - 公司提供针对英伟达Vera Rubin平台优化的旗舰产品,包括NVIDIA Vera Rubin NVL72超级集群和2U液冷英伟达HGX Rubin NVL8系统 [5] - NVIDIA Vera Rubin NVL72超级集群将72个英伟达Rubin GPU和36个英伟达Vera CPU等统一为一致平台,提供3.6百亿亿次浮点运算的NVFP4性能、1.4 PB/s的HBM4带宽和75 TB快速内存 [5] - 2U液冷英伟达HGX Rubin NVL8系统为AI和HPC工作负载优化,提供400千万亿次浮点运算的NVFP4性能、176 TB/s的HBM4带宽、28.8 TB/s的NVLink带宽和1600 Gb/s的网络连接 [5] - 平台关键特性包括:NVLink™ 6高速互连、性能较上一代提升2倍的英伟达Vera CPU、第三代Transformer引擎、第三代机密计算和第二代RAS引擎 [5] - 平台还受益于新发布的英伟达Spectrum-X以太网光子网络,基于Spectrum-6以太网ASIC,与传统可插拔光模块相比,能效提升5倍,可靠性提升10倍,应用正常运行时间提升5倍 [6] 制造与部署优势 - 超微电脑的DCBBS方法实现了简化生产、广泛的定制选项和更快的部署时间 [1] - 公司在美国、台湾和荷兰进行内部设计和制造,利用全球运营实现规模和效率 [8] - 公司对扩大制造设施和端到端液冷技术堆栈的战略投资,旨在简化全液冷英伟达Vera Rubin和Rubin平台的生产和部署 [7] - 结合模块化DCBBS架构,这些能力通过实现快速配置、严格验证和高密度平台的无缝扩展,加速了部署和上线时间,确保客户获得率先上市的优势 [7] 液冷技术 - 超微电脑在NVIDIA Vera Rubin NVL72超级集群的实施中采用了增强的数据中心规模液冷技术堆栈,包括行内冷却液分配单元,支持可扩展的温水冷却操作,最大限度减少能耗和用水,同时最大化密度和效率 [5] - 2U液冷英伟达HGX Rubin NVL8系统可选配高密度2U母线排设计,采用公司行业领先的先进直接液冷技术 [5] - 公司扩大的制造能力和行业领先的液冷专业知识,赋能超大规模企业和企业以无与伦比的速度、效率和可靠性大规模部署英伟达Vera Rubin和Rubin平台基础设施 [2]
NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer
Globenewswire· 2026-01-06 06:20
产品发布与核心定位 - NVIDIA于2026年1月5日在CES上正式推出下一代AI平台Rubin,该平台包含六款新芯片,旨在以最低成本构建、部署和保护全球最大、最先进的AI系统,加速AI主流化进程 [2] - Rubin平台通过六款芯片的极端协同设计,大幅缩短训练时间并降低推理token成本,这六款芯片包括NVIDIA Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机 [3] - 公司创始人兼CEO黄仁勋表示,Rubin平台在AI训练和推理需求激增的时刻适时推出,凭借每年发布新一代AI超级计算机的节奏和六芯片的极端协同设计,Rubin向AI下一个前沿领域迈出了一大步 [4] 性能突破与技术创新 - 与上一代Blackwell平台相比,Rubin平台将推理token成本降低高达10倍,训练MoE模型所需的GPU数量减少4倍 [5][8] - Rubin平台引入了五项创新技术,包括第六代NVLink互连技术、Transformer Engine、机密计算、RAS Engine以及NVIDIA Vera CPU,这些突破将加速智能体AI、高级推理和大规模专家混合模型推理 [5] - 第六代NVLink技术为大规模MoE模型提供快速无缝的GPU间通信,每个GPU提供3.6TB/s带宽,而Vera Rubin NVL72机架提供260TB/s带宽,超过整个互联网的带宽 [10] - Rubin GPU采用第三代Transformer Engine,具备硬件加速自适应压缩功能,可为AI推理提供50 petaflops的NVFP4计算能力 [20] - Spectrum-X以太网光子共封装光学交换系统为AI应用提供10倍可靠性和5倍正常运行时间,同时实现5倍能效提升 [19] 生态系统与合作伙伴支持 - 全球领先的AI实验室、云服务提供商、计算机制造商和初创公司预计将采用Rubin平台,包括AWS、Anthropic、谷歌、Meta、微软、OpenAI、甲骨文等超过25家行业巨头 [6] - OpenAI CEO Sam Altman表示,智能随算力扩展,Rubin平台有助于持续扩展这一进程,让先进智能惠及所有人 [7] - 微软下一代Fairwater AI超级工厂将采用NVIDIA Vera Rubin NVL72机架级系统,规模将扩展至数十万个NVIDIA Vera Rubin超级芯片 [8] - CoreWeave、AWS、谷歌云、微软和OCI等云提供商将于2026年下半年率先部署基于Vera Rubin的实例 [22] - 思科、戴尔、HPE、联想和超微等公司预计将提供基于Rubin产品的各类服务器 [25] - Anthropic、Meta、Mistral AI、OpenAI、xAI等AI实验室期待利用Rubin平台以更低的延迟和成本训练更强大模型,并服务长上下文、多模态系统 [26] 产品形态与系统设计 - Rubin平台提供两种主要形态:NVIDIA Vera Rubin NVL72机架级解决方案和NVIDIA HGX Rubin NVL8系统 [4] - Vera Rubin NVL72是一个统一的系统,结合了72个Rubin GPU、36个Vera CPU、NVLink 6、ConnectX-9 SuperNIC和BlueField-4 DPU [15] - HGX Rubin NVL8是一个服务器板,通过NVLink连接八个Rubin GPU,支持基于x86的生成式AI平台,加速AI和高性能计算工作负载的训练、推理和科学计算 [16] - NVIDIA DGX SuperPOD可作为大规模部署Rubin系统的参考架构,集成DGX Vera Rubin NVL72或DGX Rubin NVL8系统以及BlueField-4 DPU、ConnectX-9 SuperNIC等组件 [17] 关键组件与新增功能 - NVIDIA Vera CPU专为智能体推理设计,采用88个NVIDIA定制Olympus核心,是大型AI工厂能效最高的CPU [20] - Rubin平台首次在机架级平台提供NVIDIA机密计算,保护全球最大的专有模型及训练和推理工作负载 [20] - 第二代RAS Engine具备实时健康检查、容错和主动维护功能,其模块化无缆托盘设计使组装和维护速度比Blackwell快18倍 [20] - NVIDIA推出全新的AI原生存储基础设施“推理上下文内存存储平台”,由BlueField-4驱动,旨在实现千兆级别的推理上下文扩展 [12] - BlueField-4还引入了高级安全可信资源架构,为AI基础设施构建者提供单一可信控制点,以安全配置、隔离和操作大规模AI环境 [13] 生产与上市时间 - NVIDIA Rubin已进入全面生产阶段,基于Rubin的产品将于2026年下半年通过合作伙伴上市 [22] - CoreWeave将于2026年下半年开始将基于NVIDIA Rubin的系统集成到其AI云平台中 [24]