英伟达2026CES:重申Rubin平台,以PhysicalAI为基,迈向AgenticAI时代

报告行业投资评级 - 科技 增持 (维持) [2] 报告核心观点 - 英伟达在2026年CES上重申了Rubin平台细节,并强调以Physical AI为基础,迈向Agentic AI时代 [1] - 报告认为此次CES细节披露或只被视为增量信息,发布后盘中股价反应平淡 [3] - 报告认为在2025年成为Physical AI元年之后,2026年或将为Agentic AI落地元年 [6] Vera Rubin平台核心芯片解析 - Rubin GPU:配置288GB HBM4,带宽达22TB/s,对比B300的8TB/s带宽提升2.8倍;FP4推理能力达50 PFLOPS,对比B300 Sparse的20 PFLOPS提升2.5倍;训练能力35 PFLOPS;晶体管数量3360亿,对比Blackwell Ultra的2080亿提升1.6倍 [4][9][12] - Vera CPU:采用88个定制Olympus核心,搭配1.5TB LPDDR5X内存,并以1.8TB/s NVLink C2C链接Rubin GPU;内存带宽最高1.2TB/s,对比Grace CPU的512GB/s有显著提升 [4][8] - NVLink6 Switch:将双向互联带宽提升至3.6TB/s,对比NVLink5的1.8TB/s提升2倍;VR NVL72机柜总带宽约260TB/s,对比前代提升2倍;单个Switch tray可提供约14.4 TFLOPS FP8算力用于通信加速 [4][21] - ConnectX-9 SuperNIC:在VR NVL72机柜中为单颗Rubin GPU提供最高约1.6Tb/s的网络带宽,对比GB300 NVL72采用的CX8(约800Gb/s)提升2倍 [4] - BlueField-4 DPU:集成64核Grace CPU、128GB LPDDR5X内存与CX9网络,提供最高800Gb/s超低时延以太网或InfiniBand链接能力;计算性能对比BlueField-3提升6倍 [4][23] - Spectrum-6以太网交换芯片:基于200G PAM4 SerDes将单芯片交换带宽提升至102.4Tb/s;英伟达重申Spectrum-X CPO方案,可实现5倍能效提升 [4] 系统级性能与设计 - VR NVL72机柜性能:NVFP4推理算力达3.6 EFLOPS,对比Blackwell平台提升5倍;NVFP4训练算力达2.5 EFLOPS,提升3.5倍;LPDDR5X容量54 TB,提升3倍;HBM容量20.7 TB,提升1.5倍;HBM4带宽1.6 PB/s,提升2.8倍 [10] - 模块化无线束设计:Rubin计算托盘采用该设计,可缩短组装周期并提升出货效率,有助于缓解此前GB系列交付延迟的问题 [3] 软件与生态布局 - Context Memory平台:将KV Cache从GPU内存中解耦至BlueField-4,缓解推理阶段主机内存压力,据Tom‘s Hardware测算对应每GPU额外获取约16TB分布式上下文存储 [3] - Alpamayo开源模型:采用基于思维链的推理型VLA架构,定位为“教师模型”,用于支持开发者对自动驾驶系统进行微调与蒸馏;目前主要面向OEM的高级ADAS场景,例如奔驰CLA已采用基于英伟达AV软件栈及硬件的全栈智能驾驶方案 [3][5][36] 战略方向与行业趋势 - 聚焦Physical AI:英伟达判断物理AI将成为AI重点演进方向,未来车辆将以L4自动驾驶为主流形态;公司正加速推进自动驾驶战略,与Robotaxi运营商及整车OEM深化合作,推动其AI芯片与DRIVE AV软件栈于2027年前后实现L4规模化落地 [5][33] - 前瞻布局Agentic AI:报告认为2026年或为Agentic AI落地元年;英伟达吸收Groq在低时延、确定性推理方面的能力,与自身高吞吐GPU架构形成互补,以定义AI“下半场” [6][34]

英伟达2026CES:重申Rubin平台,以PhysicalAI为基,迈向AgenticAI时代 - Reportify