Workflow
Nvidia(NVDA) - 2026 Q3 - Earnings Call Transcript
英伟达英伟达(US:NVDA)2025-11-20 07:00

财务数据和关键指标变化 - 第三季度营收达到570亿美元,同比增长62%,环比增长100亿美元(22%)[4] - 第三季度数据中心收入达到创纪录的510亿美元,同比增长66%[5] - 计算业务同比增长56%,主要受GB300产能提升驱动[5] - 网络业务收入82亿美元,同比增长162%[14] - 游戏业务收入43亿美元,同比增长30%[20] - 专业可视化业务收入7.6亿美元,同比增长56%[20] - 汽车业务收入5.92亿美元,同比增长32%[20] - GAAP毛利率为73.4%,非GAAP毛利率为73.6%,超出预期[21] - 库存环比增长32%,供应承诺环比增长63%[21] - 第四季度营收预期为650亿美元(±2%),环比增长14%[22] - 第四季度GAAP和非GAAP毛利率预期分别为74.8%和75%(±50个基点)[22] 各条业务线数据和关键指标变化 - 数据中心业务中,GB300贡献了Blackwell总营收的三分之二[10] - Hopper平台在推出第13个季度仍录得约20亿美元收入[10] - H20销售额约为5000万美元[10] - 网络业务中,NVLink、InfiniBand和Spectrum X以太网均推动增长[14] - 多数AI部署现在包含公司的交换机,以太网GPU附着率与InfiniBand大致相当[14] 各个市场数据和关键指标变化 - 超大规模云服务商正在将搜索、推荐和内容理解从经典机器学习转向生成式AI[5] - 分析师对2026年顶级CSP和超大规模云服务商的总资本支出预期已增至约6000亿美元,较年初高出2000多亿美元[6] - 基础模型构建商(如Anthropic、Mistral、OpenAI等)正在积极扩展计算规模[6] - 企业软件平台(如ServiceNow、CrowdStrike、SAP)正在整合公司的加速计算和AI堆栈[8] - 中国市场因地缘政治问题和竞争加剧,大额订单未能在本季度实现[11] 公司战略和发展方向和行业竞争 - 公司预计从今年初到2026年底,Blackwell和Rubin平台的收入可见度达5000亿美元[4] - 通过执行年度产品节奏和全栈设计扩展性能领导地位,公司相信将成为到本世纪末估计每年3-4万亿美元AI基础设施建设的首选[4] - Rubin平台按计划将在2026年下半年提升产能,其性能相比Blackwell将再次实现数量级提升[11] - 公司是唯一拥有AI纵向扩展、横向扩展和跨规模扩展平台的公司[15] - CUDA GPU的长使用寿命是相对于其他加速器的显著TCO优势[12] - 公司在最新MLPerf训练结果中横扫所有基准,Blackwell Ultra的训练时间比Hopper快5倍[16] 管理层对经营环境和未来前景的评论 - 客户继续倾向于三个平台转变,为加速计算、强大AI模型和代理应用带来指数级增长[4] - AI基础设施的需求持续超出预期,云服务售罄,GPU装机基础(包括新旧世代)完全利用[4][5] - 三个扩展定律(预训练、后训练和推理)仍然有效,并出现积极的良性循环[6][7] - 代理AI在各个行业和任务中激增,为用户增长提供动力[8] - 世界正在同时经历三个大规模平台转变,这是自摩尔定律诞生以来的首次[24] - 从通用CPU计算向GPU加速计算的转变是基础且必要的[25] - 向生成式AI的转变是变革性的,而向代理和物理AI的转变将是革命性的[26] 其他重要信息 - 本季度宣布的AI工厂和基础设施项目总计达500万GPU[9] - 包括xAI的Colossus 2(首个千兆瓦级数据中心)和Lilly的AI工厂(制药行业最强大数据中心)在内的多个标志性建设项目[10] - 与Fujitsu和Intel宣布战略合作,通过NVLink Fusion连接生态系统[15] - Arm宣布将集成NVLink IP,供客户构建与NVIDIA连接的CPU SoC[16] - 正在与OpenAI就战略合作伙伴关系进行工作,旨在帮助其建设和部署至少10吉瓦的AI数据中心[17] - 与Anthropic建立深度技术合作伙伴关系,这是Anthropic首次采用NVIDIA架构[18] - 物理AI已经是价值数十亿美元的业务, addressing 数万亿美元的机会[18] - 与Uber合作,基于新的NVIDIA Hyperion L4 Robotaxi参考架构扩展全球最大的L4级自动驾驶车队[20] 问答环节所有的提问和回答 问题: 关于Blackwell和Rubin平台5000亿美元收入可见度的更新 - 公司正按计划实现5000亿美元的预测,并有几个季度的时间来完成到2026年底的目标[27] - 数字将会增长,公司可能会获得更多订单,例如今天与KSA的协议(40万-60万GPU超过三年)和Anthropic的承诺,都有机会在已公布的5000亿美元之上增加[28] 问题: 关于AI基础设施建设的规模、融资能力和ROI,以及供应能否在未来12-18个月内赶上需求 - 公司的供应链规划良好,包括与TSMC、内存供应商和系统ODMs的合作[29] - 需要认识到AI不仅仅是代理AI,生成式AI正在改变超大规模云服务商过去在CPU上完成的工作[30] - 所有应用层都在增长,并且都运行在NVIDIA GPU上[31] - AI模型质量的提高推动了在不同用例中的采用,例如代码辅助是历史上增长最快的应用之一[32] - 预训练和后训练完全有效,Gemini 3利用了扩展定律,模型性能获得了巨大提升[33][34] 问题: 关于5000亿美元数字中每吉瓦的NVIDIA内容假设,以及长期3-4万亿美元数据中心市场中 vendor financing 的占比 - 每一代产品(从Ampere到Hopper,Hopper到Blackwell,Blackwell到Rubin)在数据中心中的占比都在增加,Hopper世代约为20-25,Blackwell世代约为30±,Rubin可能更高[34] - 架构的能源效率至关重要,性能每瓦直接转化为收入[35] - 客户融资由他们自己决定,增长机会将持续一段时间[36] - 超大规模云服务商的投资不仅改善了其规模、速度和成本,还提升了当前商业模式下的收入[37] - 代理AI是净新的消费和净新的应用,每个国家将资助自己的基础设施,多个行业尚未真正参与代理AI[38][39] 问题: 关于未来几年可能产生的约5000亿美元自由现金流的计划,以及投资生态系统(如Anthropic、OpenAI)的标准 - 现金将用于资助增长,确保有弹性的供应链,并支持强大的资产负债表[40] - 公司将继续进行股票回购[41] - 投资旨在扩大CUDA生态系统的覆盖范围,与OpenAI等公司的合作是深度技术合作,以支持其增长并扩大生态系统[42] - 投资于Anthropic是首次将其引入NVIDIA架构,NVIDIA的平台是世界上运行所有AI模型的单一平台[43][44] - 投资论点是与世界上最好的公司进行深度技术合作,扩大生态系统覆盖范围,并获得对非常成功的公司的投资份额[45][46] 问题: 关于未来一年AI推理在出货量中的占比预期,以及Rubin CPX产品的背景和目标客户应用 - CPX专为长上下文类型工作负载设计,其每美元性能和每瓦性能优异[47] - 三个扩展定律(预训练、后训练和推理)同时呈指数级扩展[48] - 推理在总市场中的占比很难精确预测,但希望推理能成为非常大的部分[49] - Blackwell在推理方面的领导地位是非凡的,GB200 NVLink 72的性能有10-15倍的提升,领导地位预计将持续多年[49][50] 问题: 关于客户追求 behind-the-meter power 时,最大的增长限制瓶颈(如电力、融资、内存或晶圆厂) - 所有问题都是限制因素,但都是可解决的[51] - 供应链方面有很好的可见性和控制,与合作伙伴在土地、电力、壳体和融资方面建立了合作关系[52] - NVIDIA的架构必须为客户提供最佳价值,是性能每TCO和性能每瓦最好的架构[52] - 客户数量和平台数量在增加,表明成功在加速[53] 问题: 关于下一年度毛利率维持在中70%范围的假设、成本增加来源、以及OpEx增长预期 - 下一年度有众所周知的输入价格需要应对,但通过成本改进、周期时间和产品组合,计划将毛利率维持在中70%范围[54] - OpEx方面,目标是确保工程团队和业务团队不断创新,以创造更多系统,将继续投资于软件、系统和硬件的创新[55] - 供应链提前很长时间就知道需求,并一直在进行谈判和合作,近期激增的影响已通过提前规划和谈判得到较好处理[56][57] 问题: 关于AI ASIC或专用XPU在架构建设中的作用是否发生变化 - 公司竞争的是团队,世界上没有多少团队擅长构建这些极其复杂的东西[57] - 如今需要构建整个机架和三种不同类型的交换机,问题复杂性更高,AI模型多样性巨大[58] - NVIDIA的优势在于:加速每个过渡阶段、擅长AI的每个阶段、运行每个AI模型、存在于每个云中、以及拥有多样化的承购方[59][60][61][62]