Nvidia(NVDA) - 2026 Q3 - Earnings Call Transcript

财务数据和关键指标变化 - 第三季度总收入达到570亿美元,同比增长62%,环比增长100亿美元(22%)[5] - 第三季度数据中心收入达到创纪录的510亿美元,同比增长66%[6] - 计算业务同比增长56%,主要受GB300上量推动[6] - 网络业务收入达82亿美元,同比增长162%[13] - GAAP毛利率为73.4%,非GAAP毛利率为73.6%,超出预期[21] - GAAP运营费用环比增长8%,非GAAP运营费用环比增长11%[21] - 库存环比增长32%,供应承诺环比增长63%[21] - 第四季度收入预期为650亿美元,±2%[22] - 第四季度GAAP和non-GAAP毛利率预期分别为74.8%和75%,±50个基点[22] 各条业务线数据和关键指标变化 - 数据中心业务:记录第三季度收入510亿美元,同比增长66%[6] - 网络业务:收入82亿美元,同比增长162%,NVLink、InfiniBand和Spectrum-X以太网均实现增长[13] - 游戏业务:收入43亿美元,同比增长30%[20] - 专业可视化业务:收入7.6亿美元,同比增长56%,创下记录[20] - 汽车业务:收入5.92亿美元,同比增长32%,主要由自动驾驶解决方案推动[20] - Hopper平台在推出第13个季度实现约20亿美元收入,H20销售额约为5000万美元[10] 各个市场数据和关键指标变化 - 全球超大规模企业正在将搜索、推荐和内容理解从经典机器学习转向生成式AI[6] - 中国市场因地缘政治问题和竞争加剧,大规模订单未能实现[11] - 主权国家、模型构建者、企业和超级计算中心等多个市场对AI工厂和基础设施项目表现出需求[9] - 企业广泛利用AI提高生产力、效率和降低成本,例如RBC将报告生成时间从数小时缩短至分钟[9] 公司战略和发展方向和行业竞争 - 公司专注于加速计算、强大AI模型和代理应用三大平台转变[5] - 通过年度产品节奏和全栈设计扩展性能领导地位,目标占据到2030年预计3-4万亿美元年度AI基础设施建设的绝大部分[5] - 推出Spectrum-XGS scale-across技术,支持千兆级AI工厂[14] - 与Fujitsu、Intel和Arm等公司建立战略合作,整合生态系统[14] - 在MLPerf训练结果中,Blackwell Ultra比Hopper快5倍[15] - 物理AI已成为一个价值数十亿美元的业务,涉及数万亿美元的机会[18] 管理层对经营环境和未来前景的评论 - 客户继续倾向于三大平台转变,推动加速计算、AI模型和代理应用的指数级增长[5] - AI基础设施需求持续超出预期,云服务售罄,GPU安装基础完全利用[5] - 三个扩展定律(预训练、后训练和推理)仍然有效,形成积极的良性循环[7] - 公司处于从通用计算到加速计算、从经典机器学习到生成式AI、以及到代理和物理AI的三大平台转变的早期阶段[25][26][27] - 到2026年底,Blackwell和Rubin平台的收入可见度达到5000亿美元[5] 其他重要信息 - 公司宣布AI工厂和基础设施项目总计500万GPU,需求涵盖每个市场[9] - xAI的Colossus 2成为世界首个千兆瓦级数据中心,Lilly的AI工厂用于药物发现[10] - AWS和HUMAIN扩大合作伙伴关系,部署多达15万个AI加速器[10] - 公司与OpenAI建立战略合作伙伴关系,帮助其建设至少10 GW数据中心[16] - 与Anthropic建立深度技术合作伙伴关系,支持其快速增长[17] - 公司致力于在美国建立供应链弹性和冗余,与TSMC合作生产首块Blackwell晶圆[19] 问答环节所有提问和回答 问题: Blackwell和Rubin平台5000亿美元收入展望的更新[30] - 公司确认5000亿美元的预测,并正在按计划推进,预计在2026财年结束前将有更多可发货的计算需求[31][32] - 例如,与KSA的协议将在三年内增加40万至60万GPU,Anthropic的合作也带来额外机会[32] 问题: 供应能否在未来12-18个月内赶上需求[34] - 公司供应链管理良好,与TSMC等合作伙伴提前规划[35] - 三大转变(加速计算、生成式AI、代理AI)同时进行,推动需求增长[36][37][38][39] - AI模型质量提高,应用场景扩大,推动采用率上升[37][38] 问题: 每GW数据中心的NVIDIA内容假设及长期融资[41][42] - 每代产品(Ampere、Hopper、Blackwell、Rubin)在数据中心中的份额增加,Blackwell约为30±,Rubin更高[43] - 架构效率(性能每瓦)直接决定收入,公司通过全栈协同设计优化TCO[44][45] - 超大规模企业的前两个动态(成本驱动和收入提升)由现金流资助,代理AI是新增需求[45][46][47] - 各个国家和行业将资助自身基础设施,企业计算将自行融资[47][48] 问题: 现金使用计划和生态系统投资标准[50] - 现金用于支持增长和供应链弹性,确保供应商可靠性和规划可信度[51][52] - 继续进行股票回购[52] - 生态系统投资旨在扩大CUDA生态,与OpenAI、Anthropic等公司建立深度技术合作,获得世代性公司的股份[53][54][55][56] 问题: 推理占比展望和Rubin CPX产品[60] - CPX专为长上下文工作负载设计,具有优异的性能每美元和性能每瓦[61][62] - 三个扩展定律(预训练、后训练、推理)同时指数级增长,推理计算需求大幅增加[64] - Blackwell在推理方面领先,GB200 NVLink 72性能比H200高10-15倍,领先地位预计持续多年[65][66] 问题: 增长的最大瓶颈(电力、融资、内存等)[68] - 所有因素(电力、融资、内存、晶圆厂)都是约束,但均可解决[69][70] - 公司通过规划、建立合作伙伴关系和优化架构价值来管理供应链[70][71] - 架构提供最佳TCO和性能每瓦,客户和平台数量增加,成功率提高[71][72] 问题: 利润率展望和运营费用增长[74] - 公司目标将毛利率维持在70%中段,通过成本改进、周期时间和产品组合优化[75][76] - 运营费用将继续投资于工程和创新,以推出新架构和系统[76][77] - 供应链提前规划和谈判,已确保大量供应[78][79] 问题: AI ASIC或专用XPU在架构建设中的作用变化[81] - 竞争基于团队能力,系统复杂性增加(整个机架、多种交换机)[82] - NVIDIA的优势包括:加速每个转变阶段、擅长每个AI阶段、运行每个AI模型、遍布每个云和环境、提供多样化的承购[83][84][85][86][87] - 架构的多样性和生态系统规模确保承购弹性和需求[87]