Nvidia(NVDA) - 2026 Q3 - Earnings Call Transcript
英伟达英伟达(US:NVDA)2025-11-20 07:02

财务数据和关键指标变化 - 第三季度营收达到570亿美元,同比增长62%,环比增长100亿美元(22%)[4] - 数据中心业务收入达到创纪录的510亿美元,同比增长66% [5] - 计算业务同比增长56%,主要受GB300上量推动;网络业务同比增长超过一倍(162%),收入达82亿美元 [5][14] - 游戏业务收入43亿美元,同比增长30%;专业可视化业务收入7.6亿美元,同比增长56%;汽车业务收入5.92亿美元,同比增长32% [21] - GAAP毛利率为73.4%,非GAAP毛利率为73.6%,超出预期 [22] - GAAP运营费用环比增长8%,非GAAP运营费用环比增长11% [22] - 非GAAP有效税率略高于17%,高于16.5%的指引 [22] - 库存环比增长32%,供应承诺环比增长63% [22] - 第四季度营收预期为650亿美元(±2%),环比增长14% [23] - 第四季度GAAP和non-GAAP毛利率预期分别为74.8%和75%(±50个基点)[23] 各条业务线数据和关键指标变化 - 数据中心业务是主要增长引擎,计算和网络业务均实现强劲增长 [5][14] - 网络业务成为全球最大的AI网络业务,NVLink、InfiniBand和Spectrum X以太网均推动增长 [14] - Blackwell平台GB300贡献了Blackwell总营收的三分之二,Hopper平台在发布第13个季度仍录得约20亿美元收入 [10] - H20销售额约为5000万美元,受地缘政治问题和市场竞争影响,对华数据中心计算产品的大额订单未能在本季度实现 [10][11] - 游戏业务需求强劲,渠道库存处于正常水平 [21] - 专业可视化业务已演变为工程师和开发者的计算机,DGX Spark推动增长 [21] - 汽车业务增长主要由自动驾驶解决方案驱动 [21] 各个市场数据和关键指标变化 - 超大规模云厂商正在将搜索、推荐和内容理解从经典机器学习转向生成式AI,推动数百亿美元的基础设施投资 [6] - 分析师对顶级CSP和超大规模云厂商2026年资本支出总额的预期已增至约6000亿美元,较年初增加超过2000亿美元 [7] - 基础模型构建商(如Anthropic、Mistral、OpenAI等)正在积极扩展计算规模 [7] - 企业软件平台(如ServiceNow、CrowdStrike、SAP)正在整合加速计算和AI堆栈 [8] - 代理AI和物理AI正在多个行业普及,例如RBC将报告生成时间从数小时缩短至分钟,Unilever加速内容创作并降低成本 [9] - 本季度宣布的AI工厂和基础设施项目总计达500万GPU,需求覆盖CSP、主权实体、模型构建商、企业和超级计算中心 [9] 公司战略和发展方向和行业竞争 - 公司正执行年度产品更新节奏,通过全栈设计扩展性能领导地位,目标占据到2030年估计每年3-4万亿美元AI基础设施建设的绝大部分 [4] - 公司拥有从今年初到2026年底5000亿美元的Blackwell和Rubin平台收入能见度 [4] - Rubin平台按计划将在2026年下半年上量,将带来相对于Blackwell的X倍性能提升 [11][12] - CUDA生态系统的长期价值主张是显著的总拥有成本优势,A100 GPU在六年后仍能全利用率运行 [13] - 公司是唯一提供AI纵向扩展、横向扩展和跨规模平台的公司,强化了其作为AI基础设施提供商的独特市场地位 [15] - 在MLPerf训练结果中,Blackwell Ultra的训练速度比Hopper快5倍 [16] - 公司正与OpenAI、Anthropic等建立战略合作伙伴关系,以扩展CUDA生态系统 [17][18] - 物理AI已成为一个价值数十亿美元的业务,瞄准数万亿美元的机会 [19] 管理层对经营环境和未来前景的评论 - 公司认为AI基础设施的需求持续超出预期,云厂商售罄,GPU安装基础(包括Blackwell、Hopper和Ampere)完全利用 [4][5] - 世界正在经历三个大规模平台转变:从CPU通用计算到GPU加速计算、生成式AI取代经典机器学习、代理AI和物理AI的兴起 [26][27][28][29] - 加速计算和生成式AI已达到临界点,代理AI标志着计算的新前沿 [27][28] - 公司处于有利地位,因为其单一架构支持所有三种转变,适用于所有行业、所有AI阶段以及所有不同的计算需求 [29] - 尽管存在对AI基础设施建设规模和投资回报能力的担忧,但需求环境依然强劲,每个已部署的GPU都被占用 [37] 其他重要信息 - 公司正与TSMC、富士康、和硕等合作,在未来四年内扩大在美国的业务 [20][21] - 公司宣布与Uber合作,基于新的NVIDIA Hyperion L4 Robotaxi参考架构扩展全球最大的L4级自动驾驶车队 [21] - 公司对现金流管理保持纪律性方法,同时进行战略投资以扩展生态系统 [18] - 公司正在全球供应链中建立弹性和冗余,包括与TSMC合作在美国生产首批Blackwell晶圆 [20] 问答环节所有提问和回答 问题: 关于Blackwell和Rubin平台5000亿美元收入能见度的更新 [32] - 公司确认正朝着5000亿美元的预测推进,并有望在2026财年前获得更多可发货的计算订单,例如今天宣布的与KSA的协议(40万-60万GPU)和Anthropic的合作都带来了超出5000亿美元的机会 [33][34] 问题: 供应能否在未来12-18个月内赶上需求 [37] - 公司对其供应链规划充满信心,并强调了三个平台转变(加速计算、生成式AI、代理AI)同时推动需求,所有这些都运行在NVIDIA GPU上 [38][39][40][41][42] - AI模型质量的提高和应用的快速增长(如代码辅助工具)正在推动指数级增长 [40][41] 问题: 每千兆瓦NVIDIA内容价值假设及长期数据中心市场融资 [44][45] - 每代产品(Hopper, Blackwell, Rubin)在数据中心的价值占比都在增加,Blackwell约为30±,Rubin可能更高 [46] - 性能每瓦的提升直接关系到收入,因此选择正确的架构至关重要 [47] - 客户融资由他们自己决定,超大规模云厂商的前两个动态(成本降低和收入提升)是现金流资助的,代理AI是净新增量 [48][49][50] - 需要关注全球各行业而不仅仅是超大规模云厂商的投资 [50][51] 问题: 巨额现金流的计划及生态系统投资标准 [54] - 现金将用于支持增长所需的弹性供应链、继续股票回购以及战略生态系统投资 [55][56] - 对OpenAI、Anthropic等的投资旨在深化技术合作,扩展CUDA生态系统,并投资于可能成为一代人的公司 [57][58][59][60] 问题: 推理业务占比展望及Rubin CPX产品 [63] - CPX专为长上下文工作负载设计,其每美元性能和每瓦性能优异 [64] - 三个扩展定律(预训练、后训练、推理)都在同时指数级扩展,很难精确预测推理占比 [65] - 希望推理成为很大一部分市场,这代表使用更广泛,公司在推理方面的领导地位是多年性的 [65][66] 问题: 增长的最大瓶颈 [67] - 所有方面(电力、融资、内存、晶圆厂)都是制约因素,但都是可解决的 [68] - 公司对其供应链管理、架构的TCO和性能每瓦优势充满信心 [69][70] - 选择NVIDIA架构的客户数量在增加 [71] 问题: 明年利润率假设和运营费用增长 [73] - 公司正通过成本改进、周期时间和产品组合努力将毛利率维持在中位70%区间,尽管存在已知的投入成本上涨 [74][75] - 运营费用将继续投资于工程和创新,以推出新架构和系统 [75][76] - 公司与供应链提前很长时间进行规划和谈判,已确保大量供应 [77][78] 问题: 对AI专用芯片(ASIC/XPU)作用的看法变化 [80] - 构建现代AI系统(整个机架、多种交换机)的复杂性大大增加 [82] - NVIDIA的优势在于:加速所有三个转变阶段、擅长AI所有阶段、运行所有AI模型、遍布所有云环境、以及因其生态系统庞大而拥有多样化的承购量 [83][84][85][86] - 这些因素使得NVIDIA相比专用解决方案更具优势 [86]