Workflow
Open Models
icon
搜索文档
NVIDIA (NasdaqGS:NVDA) Update / Briefing Transcript
2026-01-06 08:02
电话会议纪要关键要点总结 涉及的行业与公司 * 公司:NVIDIA (NVDA) [1] * 行业:人工智能、半导体、数据中心、云计算、自动驾驶汽车、机器人、医疗保健、量子计算 [7][22][27][54] 核心观点与论据 1. 技术领先与系统级协同设计 * NVIDIA强调其通过极致的协同设计能力实现性能飞跃,从Hopper到Blackwell实现了**10比1的性能提升和10比1的成本降低**,而晶体管数量仅增加**2倍**[8] * 公司认为,要跟上模型规模**10倍增长**、token增长和成本下降的速度,必须进行跨GPU、CPU、NIC、NVLink交换机等全系统的协同设计,否则将难以克服摩尔定律的限制[7][8][9] * NVIDIA展示了其Vera Rubin Pod,声称这是首个从头开始构建的、具备此类能力的系统,公司编写了每一行代码,设计了每一个芯片,创建了所有系统并优化了所有算法[7] 2. 产品进展与路线图 * **Vera Rubin**已进入**全面生产**阶段,计划在**今年下半年**推向市场[19][20] * Vera Rubin的升级周期约为**9个月以上**[20] * Vera Rubin的每个芯片都是全新的,包括HBM4、LPDDR5 SoCam等,其成功整合是一个“奇迹”[60] * **Grace Blackwell (GB300)** 的过渡非常顺利,正在被广泛部署[118] * 公司预计**明年将是Vera Rubin之年**,并将开始大规模出货[119] 3. 市场需求与业务规模 * 公司多次强调**需求非常强劲**[28][44][102][117] * 自动驾驶汽车业务经过**8年**发展,现已是一个**价值数十亿美元的业务**,预计到2030年底将成为一项非常大的业务[22][24] * 公司每个季度增长的规模相当于**一家大型上市芯片公司**[35] * 公司正在帮助供应链准备**数百亿美元**的产能[36] 4. 供应链与产能 * NVIDIA拥有规模优势,是**全球唯一购买DRAM的芯片公司**,直接从所有DRAM制造商处购买**价值数百亿美元的DRAM**[36][37] * 公司已认证并预备了所有HBM合作伙伴[38] * 公司通过MGX等项目在机架层面优化供应链,标准化组件[36] * 对于中国市场,公司有专门的H20供应,不会影响其他国家的订单和需求[42] 5. 竞争格局与生态系统 * NVIDIA认为自己是**全球唯一运行所有AI模型的平台**,包括xAI、OpenAI、Gemini、Anthropic以及所有开源模型[31][32] * 公司与**几乎所有拥有自动驾驶技术的公司**在数据中心有合作,包括特斯拉、比亚迪、小米、理想、小鹏等[23] * 公司采取开放策略,将大量软件和基础设施栈贡献给开源社区,以促进生态系统繁荣[8][23][24] * 公司认为,在基础模型领域可能会出现几家主要玩家(如OpenAI、Anthropic),但**垂直化(行业专用AI)将是明确趋势**,许多企业将基于开源模型构建自己的AI[70][71][74][75] 6. 新市场与增长领域 * **智能网卡(SmartNIC)与存储**:公司预计将成为**全球最大的存储处理器公司**,并可能出货最多的高端CPU。BlueField-4将非常成功,其DOCA软件层已被广泛采用。AI数据库和KV缓存将催生一个全新的、巨大的高性能存储市场[54][55] * **新云提供商(NeoClouds/GPU Clouds)**:公司培育并合作伙伴了众多区域性的、敏捷的新云提供商(如CoreWeave、Lambda、G42、Yotta),以快速应对技术和市场变化,并解决土地、电力和设施获取的挑战[85][86] * **物理AI与智能体AI**:公司通过Cosmo等模型降低物理AI的门槛。智能体AI框架将成为未来构建应用程序的基本框架,并可能推动**token生成率提升50倍**[77][82][101][119] * **收购与整合**:公司解释了收购Groq和Fabrica的逻辑,旨在整合具有互补技术的团队(如Groq的极低延迟架构),以扩展AI基础设施的能力边界,同时保持公司整体的精简和敏捷[14][107][108][110] 7. 财务与利润率展望 * 公司预计今年毛利率将维持在**70%左右的中段水平**[88] * 长期利润率与公司提供的价值直接相关,价值体现在三个核心维度:1) 训练合理规模模型所需的时间和GPU数量;2) 生成token的成本与服务质量;3) 在有限功耗(如**1吉瓦**)下数据中心的整体收益能力[89][91][92] * 建设一个AI工厂的成本可能高达**500亿美元**,其中约**200亿美元**是土地、电力和设施成本。因此,客户对性能提升的期望极高(如10倍),而非小幅改进(如50%)[63][64][94] * 公司通过极致的工程设计和协同设计(如NVFP4)来突破摩尔定律,以维持其价值交付能力和利润率[93] 8. 研发与未来方向 * 研发投入强度高,投资覆盖从土地、电力、设施到芯片、基础设施、模型和应用的整个技术栈,以及上下游供应链和各个行业[105][106] * 公司自身也是**全球最大的模型构建者之一**,为开放科学和市场构建领先模型,这为其架构创造了强大的飞轮效应[105][119] * 未来的技术突破可能围绕**无限上下文长度**、**状态空间模型(SSM)与Transformer的混合**、**持续学习**以及通过BlueField-4等技术**让内存更接近计算**[98][99][100] * **推理(inference)** 的token生成率目前正以**每年5倍**的速度增长,主要受推理需求驱动;而**智能体系统**可能推动其进一步**增长50倍**[97][100][101] 其他重要内容 * **DGX Cloud战略**:DGX Cloud从未旨在与云服务提供商(CSP)竞争,而是作为一项战略,用于:1) 帮助CSP为新的AI架构做好准备;2) 为CSP吸引开发者与客户(AI原生公司);3) 将NVIDIA的模型和合作伙伴生态引入CSP的云中。随着飞轮效应启动,NVIDIA自身对租用算力的需求在降低[46][47][48][49][50][51] * **软件与开源**:NVIDIA将大量软件贡献给开源,包括用于自动驾驶的仿真、合成数据生成和世界基础模型等基础设施栈[8][23] * **跨行业影响力**:公司活跃于多个行业,包括医疗保健(与机器人、影像、AI、药物发现公司合作)、量子计算(为全球几乎每台量子计算机提供动力)等[27] * **Amdahl定律挑战**:公司指出,如果只构建单芯片或架构不变,Amdahl定律会成为瓶颈,无法充分利用晶体管增长带来的性能提升[9][14][93]
NVIDIA (NasdaqGS:NVDA) 2026 Conference Transcript
2026-01-06 06:02
NVIDIA CES 2026 主题演讲纪要分析 涉及的行业与公司 * 公司:NVIDIA (NVDA) [1] * 行业:人工智能、加速计算、半导体、云计算、自动驾驶汽车、机器人、工业设计与制造、EDA(电子设计自动化)[1][2][3][4][5][6][7][8][9][10][11][12][13][14][15][16][17][18][19][20][21][22][23][24][25][26][27][28][29][30][31][32][33][34][35][36][37][38][39][40][41][42][43][44][45][46][47][48][49][50][51][52][53][54][55][56][57][58][59][60][61][62][63][64][65][66][67][68][69][70][71][72][73][74][75][76][77][78][79][80][81][82][83][84][85][86][87] 核心观点与论据 1. 人工智能引领双重平台变革 * 计算行业每10-15年发生一次平台转移,当前正同时经历向AI和基于AI构建应用的双重平台变革 [1][2] * 整个计算产业的五层堆栈(从芯片到应用)正在被重塑:软件从编程变为训练,计算从CPU转向GPU,应用从预编译变为实时生成 [2] * 过去十年价值约10万亿美元的计算基础设施正在向这种新计算方式现代化 [3] * 每年有数百亿至数千亿美元的VC资金投入这一现代化进程,同时数万亿美元产业(其中几个百分点是研发预算)的研发资金正转向人工智能 [3] 2. 2025年AI关键进展与趋势 * **推理模型与测试时扩展**:2023年ChatGPT O1模型引入“测试时扩展”(即思考),使AI能够实时推理 [5] * **智能体系统普及**:2024年开始出现,2025年广泛扩散,能够推理、查找信息、研究、使用工具、规划未来、模拟结果 [5][6] * **物理AI**:理解自然法则并与物理世界交互的AI [6][7] * **开源模型达到前沿水平**:以DeepSeek R1(首个开源推理系统)为代表,开源模型虽仍落后前沿专有模型约6个月,但每6个月就有新模型出现且越来越智能 [7][8] * **下载量激增**:开源模型下载量爆炸式增长,因为初创公司、大企业、研究人员、学生和各国都希望参与AI革命 [8] 3. NVIDIA作为前沿AI模型构建者的战略 * 公司运营着价值数十亿美元的DGX超级计算机用于开发自己的开源模型 [9] * 在多个领域进行前沿AI模型工作,包括: * **数字生物学**:La Protina(合成与生成蛋白质)、OpenFold3(理解蛋白质结构)、Evo2(理解与生成多种蛋白质) [9] * **物理AI**:Earth-2(理解物理定律)、FourCastNet和CorrDiff(革新天气预测) [10] * **基础模型**:Nemotron-3(首个混合Transformer SSM模型,速度极快)、Cosmos(前沿开放世界基础模型)、GR00T(人形机器人系统) [10] * **自动驾驶**:AlphaMyo [11] * 不仅开源模型,还开源用于训练模型的数据,并提供全套生命周期管理库(NeMo、Physics NeMo、Clara NeMo、Bio NeMo) [11] * 模型在多个排行榜上位居前列,包括PDF解析、语音识别、检索模型(语义搜索)等 [13][14] 4. 智能体(Agent)架构与AI应用未来 * AI智能体具备推理能力,能够将未知问题分解为已知步骤,无需在第一天就知晓一切 [15][16] * 未来AI应用架构是多模态、多云、混合云的,能够调用最适合任务的不同模型 [17][18] * 公司提供“蓝图”框架,集成到全球企业SaaS平台中,使企业能够构建既定制化又始终处于前沿的AI [19] * 现场演示了使用Brev、DGX Spark、前沿模型API、意图模型路由器和Hugging Face的Ricci机器人构建个人助理的示例 [20][21][22] * 这种基于语言模型(结合专有前沿模型与定制模型)的智能体框架,是现代AI应用的基本架构 [23] 5. 企业AI与物理AI的变革 * **企业AI**:与Palantir、ServiceNow、Snowflake、CodeRabbit、CrowdStrike、NetApp等领先企业平台合作,将智能体系统集成并加速其平台,智能体系统正成为新的用户界面,取代传统如Excel或命令行 [24][25] * **物理AI**:致力于让AI理解物理世界的常识(物体恒存性、因果关系、摩擦力、重力、惯性),这需要三个计算系统:训练AI的计算机、在边缘推理的计算机、以及用于模拟的计算机 [26][27][28][29] * **核心模拟与数据生成平台**: * **Omniverse**:数字孪生、基于物理的模拟世界 [29] * **Cosmos**:世界基础模型,通过对互联网规模视频、真实驾驶与机器人数据以及3D模拟进行预训练,学习世界的统一表征,能够生成物理上合理的合成数据以解决真实世界数据稀缺问题 [30][31] * Cosmos已被下载数百万次,公司也用它来创建自动驾驶汽车,进行场景生成和评估 [32] 6. 自动驾驶汽车:AlphaMyo与全栈整合 * **AlphaMyo发布**:全球首个具备思考、推理能力的自动驾驶汽车AI,端到端训练(从摄像头输入到执行机构输出) [33] * **数据来源**:结合自身驾驶里程、人类示范驾驶里程以及Cosmos生成的数据,并辅以数十万个精心标注的示例 [33] * **关键特性**:不仅处理传感器输入并控制车辆,还会推理即将采取的行动、解释原因并规划轨迹,通过处理“长尾”驾驶场景 [33][34] * **全栈整合示例**:以与梅赛德斯-奔驰的合作为例,展示了AI五层蛋糕在机器人领域的应用: * 底层:汽车(机器人本体) * 第二层:芯片(GPU、网络芯片、CPU) * 第三层:基础设施(Omniverse、Cosmos) * 第四层:模型(AlphaMyo) * 第五层:应用(梅赛德斯-奔驰汽车) [36][37] * **商业化进展**:首款NVIDIA自动驾驶汽车将于2026年Q1在美国上路,Q2进入欧洲,Q3/Q4进入亚洲,并将持续更新AlphaMyo版本 [38] * **安全架构**:采用双软件栈(AlphaMyo栈和经典AV栈)镜像运行,由策略与安全评估器决定使用哪个栈,确保安全冗余 [39][40] * **商业模式**:整个堆栈对生态系统开放,合作伙伴可根据需要采用全栈或部分技术,这已成为公司的巨大业务 [41][42] 7. 机器人技术的下一篇章 * 物理AI和模拟技术适用于所有形式的机器人系统(操纵器、移动机器人、人形机器人) [42] * 机器人通过Omniverse中的Isaac Sim和Isaac Lab模拟器进行训练 [43][44] * 众多合作伙伴正在构建各种机器人,包括Neurobot、Agibot、LG、卡特彼勒、Agility、Boston Dynamics、手术机器人、Franka、Universal Robots等 [44] 8. 赋能半导体与工业设计行业 * 物理AI和AI物理将革命性改变半导体设计(EDA)和系统设计行业 [45] * 与Cadence、Synopsys和西门子达成深度合作,将CUDA X库、物理AI、智能体AI、NeMo、Nemotron集成到其设计、仿真和数字孪生工具中 [45][46][49] * 未来将出现智能体芯片设计师和系统设计师,芯片和系统将在计算机中设计、制造、测试和评估 [46][47][48] * 与西门子的合作旨在将物理AI带入从设计、仿真到生产、运营的完整工业生命周期,开启新的工业革命 [49] 9. 下一代计算平台:Vera Rubin * **发布背景**:AI计算需求飙升,模型规模每年以10倍(一个数量级)增长,O1模型引入后,推理变为思考过程,测试时扩展导致生成的token数量每年增加5倍,同时AI token成本每年下降约10倍 [51][52] * **设计理念**:由于摩尔定律放缓,晶体管数量年增长有限(Vera Rubin GPU晶体管数量仅为Blackwell的1.6倍),必须通过极致的协同设计(重新设计所有芯片和整个堆栈)来实现性能飞跃 [57][58][60] * **系统组成**: * **Vera CPU**:定制设计CPU,性能是上一代的两倍,与Rubin GPU协同设计,双向一致共享数据 [55][59] * **Rubin GPU**:AI浮点性能是Blackwell的5倍,采用革命性的MVFP4张量核心,可动态自适应调整精度 [55][60][61][62] * **ConnectX-9 NIC**:为每个GPU提供1.6 terabits/秒的横向扩展带宽 [55] * **BlueField-4 DPU**:卸载存储和安全功能 [55] * **第六代NVLink交换机**:数据移动量超过全球互联网,连接18个计算节点,最多72个Rubin GPU协同工作 [56][68] * **Spectrum-X以太网光子交换机**:世界首个具有512端口、200 gigabits/秒能力的共封装光学器件以太网交换机,采用TSMC的COOP硅光子集成新工艺 [56][72] * **关键创新与性能**: * **能效**:功耗是Grace Blackwell的两倍,但进气流量相同,冷却水温仍为45摄氏度,无需冷水机,预计可节省全球数据中心约6%的电力 [71][80] * **机密计算安全**:所有总线(PCIe、NVLink)在传输、静态和计算过程中均加密 [81] * **功率平滑**:解决AI工作负载瞬时尖峰(可达25%)问题,避免过度配置造成的能源浪费 [82] * **性能数据(模拟预测)**: * **训练**:对于10万亿参数模型(DeepSeek Plus Plus),Rubin的吞吐量远高于Blackwell,只需1/4数量的系统即可在一个月内完成训练 [84][85] * **工厂吞吐量**:Rubin的吞吐量每瓦性能预计将比Blackwell再高10倍左右,直接影响数据中心收入 [85][86] * **Token成本**:Rubin生成token的成本效益约为Blackwell的十分之一 [86] * **规模化部署**:Vera Rubin已投入全面生产,一个Rubin Pod包含1,152个GPU(16个机架,每机架72个GPU) [54][56][57] 其他重要内容 * **公司定位演进**:NVIDIA不仅构建芯片,现在构建整个系统,AI是一个全栈事业,公司正在从芯片到基础设施、模型、应用等各个方面重塑AI [86] * **市场拐点**:自动驾驶汽车从非自动驾驶到自动驾驶的拐点可能正在此时发生,未来10年,全球很大比例的汽车将成为自动驾驶或高度自动驾驶 [42] * **生态合作广度**:演讲中提及大量合作伙伴,涵盖云计算、企业软件、数据平台、网络安全、工业设计、机器人等多个领域,凸显NVIDIA生态系统的广泛性和战略重要性 [24][41][44][45][46][49]
NVIDIA, Alphabet and Google Collaborate on the Future of Agentic and Physical AI
Globenewswire· 2025-03-19 03:27
文章核心观点 NVIDIA、Alphabet和Google宣布新合作计划,推进人工智能发展,使人工智能工具普及化,加速实体人工智能开发,变革医疗、制造和能源等行业 [1][20] 分组1:合作总体情况 - 工程师和研究人员紧密合作,利用AI和模拟技术开发机器人、重塑药物发现、优化能源网格等 [2] - Google Cloud将率先采用NVIDIA GB300 NVL72和NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU [3] - NVIDIA将率先采用Google DeepMind的SynthID技术 [3] 分组2:开发负责任的人工智能和开放模型 - Google DeepMind和NVIDIA通过内容透明度建立对生成式AI的信任 [5] - NVIDIA将成为SynthID的首个外部用户,保护知识产权 [6] - 双方合作优化Gemma模型,使其在NVIDIA GPUs上运行 [7] - 合作将扩展到通过Vertex AI优化基于Gemini的工作负载 [8] 分组3:智能机器人时代 - Intrinsic与NVIDIA合作,为Intrinsic Flowstate构建开发者工作流程,支持通用机器人抓取能力 [10] - Intrinsic将分享与NVIDIA Omniverse的OpenUSD框架流连接 [10] - NVIDIA、Google DeepMind与迪士尼研究合作开发开源物理引擎Newton [11] 分组4:将创新应用于现实挑战 - Isomorphic Labs利用AI重塑药物发现,借助Google Cloud和NVIDIA GPUs开发药物设计引擎 [12] - Tapestry与NVIDIA探索提高电网模拟速度和准确性的方法 [13] - 双方合作应对能源基础设施挑战,确保电网稳定性 [14] 分组5:下一代人工智能优化基础设施 - Google Cloud将率先提供NVIDIA Blackwell GPUs的最新实例 [15] - NVIDIA GB300 NVL72比NVIDIA GB200 NVL72的AI性能高1.5倍 [16] - Google Cloud和NVIDIA合作优化JAX和MaxText等开源框架 [18]