Vera Rubin平台与芯片发布 - 公司宣布Vera Rubin平台开启Agentic AI新时代,旨在构建全球最大的AI工厂,该平台包含七款已全面投入生产的新芯片[1][14] - 七款芯片包括:NVIDIA Vera CPU(服务器CPU)、NVIDIA Rubin GPU、NVIDIA NVLink 6(第六代交换机芯片)、NVIDIA ConnectX-9 SuperNIC(超级网卡)、NVIDIA BlueField-4 DPU(存储芯片)、NVIDIA Spectrum-6(支持CPO技术的以太网交换机芯片)以及新集成的NVIDIA Groq 3 LPU[1][15] - 这些芯片能够组成五种机架在数据中心运行,标志着公司从单一芯片竞争进入全方位的系统级竞赛阶段[1][16] 技术规格与性能突破 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,Vera CPU(88核自研架构)与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成[4][18] - 采用“去PCIe化”紧耦合设计,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍[4][18] - 平台为Agentic AI与长上下文推理设计,引入Transformer Engine 3.0等技术,使AI能处理数万个Token的上下文,单机柜NVL72内部互联总带宽达260 TB/s[5][19] - Vera CPU机架集成256个Vera CPU,基于MGX液冷基础设施,其效率是传统CPU的两倍,速度提升50%[5][19] 市场预测与客户进展 - 公司CEO预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍[2][15] - 已确认合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于今年下半年供货[6][20] Groq LPU与混合算力战略 - 公司通过200亿美元战略授权并集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽[6][21] - LPU采用确定性流水线架构,消除计算抖动,专为Agentic AI与实时交互设计,能保证毫秒级任务的执行时间恒定,将复杂Agent链条的思考时间从数分钟缩短至数秒[9][22] - 公司构建混合算力帝国:GPU负责万亿参数模型训练与长文本预处理,LPU阵列以10倍于对手的能效比统治实时推理市场,实现训练与推理分离[10][23] 软件、模型与生态系统建设 - 面向OpenClaw社区推出NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装Nemotron模型和OpenShell运行时环境,为AI代理增加安全与隐私控制[11][23] - NemoClaw支持本地与云端模型混合调用,可运行于GeForce RTX设备、RTX PRO工作站及DGX系统,为全天候AI代理提供算力[12][24] - 宣布成立Nemotron联盟,联合全球AI实验室推进开放前沿模型发展,并扩展Nemotron 3系列多模态模型,包括Ultra、Omni和VoiceChat等版本[12][24] - 发布应用于物理世界的新模型,包括面向类人机器人的Isaac GR00T N1.7模型、面向自动驾驶的Alpamayo 1.5模型,以及即将推出的统一世界基础模型Cosmos 3[13][25] 行业趋势与战略定位 - 公司CEO强调“Token”是AI时代的新货币,AI工厂是生成Token的基础设施,公司通过Vera Rubin DSX AI Factory参考设计和Omniverse数字孪生蓝图提供构建最高生产力AI工厂的基础[6][20] - 行业趋势显示,巨头正通过聚集能力、补齐短板、延伸上下游来构建强大壁垒,单一比拼芯片性能的阶段已过去,系统级竞赛正在上演[2][16]
英伟达塑造“Token经济学”