NVIDIA (NasdaqGS:NVDA) 2026 Conference Transcript
英伟达英伟达(US:NVDA)2026-01-06 06:02

NVIDIA CES 2026 主题演讲纪要分析 涉及的行业与公司 * 公司:NVIDIA (NVDA) [1] * 行业:人工智能、加速计算、半导体、云计算、自动驾驶汽车、机器人、工业设计与制造、EDA(电子设计自动化)[1][2][3][4][5][6][7][8][9][10][11][12][13][14][15][16][17][18][19][20][21][22][23][24][25][26][27][28][29][30][31][32][33][34][35][36][37][38][39][40][41][42][43][44][45][46][47][48][49][50][51][52][53][54][55][56][57][58][59][60][61][62][63][64][65][66][67][68][69][70][71][72][73][74][75][76][77][78][79][80][81][82][83][84][85][86][87] 核心观点与论据 1. 人工智能引领双重平台变革 * 计算行业每10-15年发生一次平台转移,当前正同时经历向AI和基于AI构建应用的双重平台变革 [1][2] * 整个计算产业的五层堆栈(从芯片到应用)正在被重塑:软件从编程变为训练,计算从CPU转向GPU,应用从预编译变为实时生成 [2] * 过去十年价值约10万亿美元的计算基础设施正在向这种新计算方式现代化 [3] * 每年有数百亿至数千亿美元的VC资金投入这一现代化进程,同时数万亿美元产业(其中几个百分点是研发预算)的研发资金正转向人工智能 [3] 2. 2025年AI关键进展与趋势 * 推理模型与测试时扩展:2023年ChatGPT O1模型引入“测试时扩展”(即思考),使AI能够实时推理 [5] * 智能体系统普及:2024年开始出现,2025年广泛扩散,能够推理、查找信息、研究、使用工具、规划未来、模拟结果 [5][6] * 物理AI:理解自然法则并与物理世界交互的AI [6][7] * 开源模型达到前沿水平:以DeepSeek R1(首个开源推理系统)为代表,开源模型虽仍落后前沿专有模型约6个月,但每6个月就有新模型出现且越来越智能 [7][8] * 下载量激增:开源模型下载量爆炸式增长,因为初创公司、大企业、研究人员、学生和各国都希望参与AI革命 [8] 3. NVIDIA作为前沿AI模型构建者的战略 * 公司运营着价值数十亿美元的DGX超级计算机用于开发自己的开源模型 [9] * 在多个领域进行前沿AI模型工作,包括: * 数字生物学:La Protina(合成与生成蛋白质)、OpenFold3(理解蛋白质结构)、Evo2(理解与生成多种蛋白质) [9] * 物理AI:Earth-2(理解物理定律)、FourCastNet和CorrDiff(革新天气预测) [10] * 基础模型:Nemotron-3(首个混合Transformer SSM模型,速度极快)、Cosmos(前沿开放世界基础模型)、GR00T(人形机器人系统) [10] * 自动驾驶:AlphaMyo [11] * 不仅开源模型,还开源用于训练模型的数据,并提供全套生命周期管理库(NeMo、Physics NeMo、Clara NeMo、Bio NeMo) [11] * 模型在多个排行榜上位居前列,包括PDF解析、语音识别、检索模型(语义搜索)等 [13][14] 4. 智能体(Agent)架构与AI应用未来 * AI智能体具备推理能力,能够将未知问题分解为已知步骤,无需在第一天就知晓一切 [15][16] * 未来AI应用架构是多模态、多云、混合云的,能够调用最适合任务的不同模型 [17][18] * 公司提供“蓝图”框架,集成到全球企业SaaS平台中,使企业能够构建既定制化又始终处于前沿的AI [19] * 现场演示了使用Brev、DGX Spark、前沿模型API、意图模型路由器和Hugging Face的Ricci机器人构建个人助理的示例 [20][21][22] * 这种基于语言模型(结合专有前沿模型与定制模型)的智能体框架,是现代AI应用的基本架构 [23] 5. 企业AI与物理AI的变革 * 企业AI:与Palantir、ServiceNow、Snowflake、CodeRabbit、CrowdStrike、NetApp等领先企业平台合作,将智能体系统集成并加速其平台,智能体系统正成为新的用户界面,取代传统如Excel或命令行 [24][25] * 物理AI:致力于让AI理解物理世界的常识(物体恒存性、因果关系、摩擦力、重力、惯性),这需要三个计算系统:训练AI的计算机、在边缘推理的计算机、以及用于模拟的计算机 [26][27][28][29] * 核心模拟与数据生成平台: * Omniverse:数字孪生、基于物理的模拟世界 [29] * Cosmos:世界基础模型,通过对互联网规模视频、真实驾驶与机器人数据以及3D模拟进行预训练,学习世界的统一表征,能够生成物理上合理的合成数据以解决真实世界数据稀缺问题 [30][31] * Cosmos已被下载数百万次,公司也用它来创建自动驾驶汽车,进行场景生成和评估 [32] 6. 自动驾驶汽车:AlphaMyo与全栈整合 * AlphaMyo发布:全球首个具备思考、推理能力的自动驾驶汽车AI,端到端训练(从摄像头输入到执行机构输出) [33] * 数据来源:结合自身驾驶里程、人类示范驾驶里程以及Cosmos生成的数据,并辅以数十万个精心标注的示例 [33] * 关键特性:不仅处理传感器输入并控制车辆,还会推理即将采取的行动、解释原因并规划轨迹,通过处理“长尾”驾驶场景 [33][34] * 全栈整合示例:以与梅赛德斯-奔驰的合作为例,展示了AI五层蛋糕在机器人领域的应用: * 底层:汽车(机器人本体) * 第二层:芯片(GPU、网络芯片、CPU) * 第三层:基础设施(Omniverse、Cosmos) * 第四层:模型(AlphaMyo) * 第五层:应用(梅赛德斯-奔驰汽车) [36][37] * 商业化进展:首款NVIDIA自动驾驶汽车将于2026年Q1在美国上路,Q2进入欧洲,Q3/Q4进入亚洲,并将持续更新AlphaMyo版本 [38] * 安全架构:采用双软件栈(AlphaMyo栈和经典AV栈)镜像运行,由策略与安全评估器决定使用哪个栈,确保安全冗余 [39][40] * 商业模式:整个堆栈对生态系统开放,合作伙伴可根据需要采用全栈或部分技术,这已成为公司的巨大业务 [41][42] 7. 机器人技术的下一篇章 * 物理AI和模拟技术适用于所有形式的机器人系统(操纵器、移动机器人、人形机器人) [42] * 机器人通过Omniverse中的Isaac Sim和Isaac Lab模拟器进行训练 [43][44] * 众多合作伙伴正在构建各种机器人,包括Neurobot、Agibot、LG、卡特彼勒、Agility、Boston Dynamics、手术机器人、Franka、Universal Robots等 [44] 8. 赋能半导体与工业设计行业 * 物理AI和AI物理将革命性改变半导体设计(EDA)和系统设计行业 [45] * 与Cadence、Synopsys和西门子达成深度合作,将CUDA X库、物理AI、智能体AI、NeMo、Nemotron集成到其设计、仿真和数字孪生工具中 [45][46][49] * 未来将出现智能体芯片设计师和系统设计师,芯片和系统将在计算机中设计、制造、测试和评估 [46][47][48] * 与西门子的合作旨在将物理AI带入从设计、仿真到生产、运营的完整工业生命周期,开启新的工业革命 [49] 9. 下一代计算平台:Vera Rubin * 发布背景:AI计算需求飙升,模型规模每年以10倍(一个数量级)增长,O1模型引入后,推理变为思考过程,测试时扩展导致生成的token数量每年增加5倍,同时AI token成本每年下降约10倍 [51][52] * 设计理念:由于摩尔定律放缓,晶体管数量年增长有限(Vera Rubin GPU晶体管数量仅为Blackwell的1.6倍),必须通过极致的协同设计(重新设计所有芯片和整个堆栈)来实现性能飞跃 [57][58][60] * 系统组成: * Vera CPU:定制设计CPU,性能是上一代的两倍,与Rubin GPU协同设计,双向一致共享数据 [55][59] * Rubin GPU:AI浮点性能是Blackwell的5倍,采用革命性的MVFP4张量核心,可动态自适应调整精度 [55][60][61][62] * ConnectX-9 NIC:为每个GPU提供1.6 terabits/秒的横向扩展带宽 [55] * BlueField-4 DPU:卸载存储和安全功能 [55] * 第六代NVLink交换机:数据移动量超过全球互联网,连接18个计算节点,最多72个Rubin GPU协同工作 [56][68] * Spectrum-X以太网光子交换机:世界首个具有512端口、200 gigabits/秒能力的共封装光学器件以太网交换机,采用TSMC的COOP硅光子集成新工艺 [56][72] * 关键创新与性能: * 能效:功耗是Grace Blackwell的两倍,但进气流量相同,冷却水温仍为45摄氏度,无需冷水机,预计可节省全球数据中心约6%的电力 [71][80] * 机密计算安全:所有总线(PCIe、NVLink)在传输、静态和计算过程中均加密 [81] * 功率平滑:解决AI工作负载瞬时尖峰(可达25%)问题,避免过度配置造成的能源浪费 [82] * 性能数据(模拟预测): * 训练:对于10万亿参数模型(DeepSeek Plus Plus),Rubin的吞吐量远高于Blackwell,只需1/4数量的系统即可在一个月内完成训练 [84][85] * 工厂吞吐量:Rubin的吞吐量每瓦性能预计将比Blackwell再高10倍左右,直接影响数据中心收入 [85][86] * Token成本:Rubin生成token的成本效益约为Blackwell的十分之一 [86] * 规模化部署:Vera Rubin已投入全面生产,一个Rubin Pod包含1,152个GPU(16个机架,每机架72个GPU) [54][56][57] 其他重要内容 * 公司定位演进:NVIDIA不仅构建芯片,现在构建整个系统,AI是一个全栈事业,公司正在从芯片到基础设施、模型、应用等各个方面重塑AI [86] * 市场拐点:自动驾驶汽车从非自动驾驶到自动驾驶的拐点可能正在此时发生,未来10年,全球很大比例的汽车将成为自动驾驶或高度自动驾驶 [42] * 生态合作广度:演讲中提及大量合作伙伴,涵盖云计算、企业软件、数据平台、网络安全、工业设计、机器人等多个领域,凸显NVIDIA生态系统的广泛性和战略重要性 [24][41][44][45][46][49]