NVIDIA CUDA
搜索文档
NVIDIA (NVDA) Evaluates Adding Production Capacity for Powerful H200 AI Chips
Yahoo Finance· 2025-12-18 13:39
NVIDIA Corporation (NASDAQ:NVDA) is one of the Top AI and Technology Stocks to Buy According to Hedge Funds. On December 12, Reuters reported that NVIDIA Corporation (NASDAQ:NVDA) informed Chinese clients that it is evaluating adding production capacity for its powerful H200 AI chips. This comes after orders surpassed its current output level. NVIDIA (NVDA) Evaluates Adding Production Capacity for Powerful H200 AI Chips To provide a brief background, the US President Donald Trump recently announced that ...
Nvidia(NVDA) - 2026 Q3 - Earnings Call Transcript
2025-11-20 07:00
财务数据和关键指标变化 - 第三季度营收达到570亿美元,同比增长62%,环比增长100亿美元(22%)[4] - 第三季度数据中心收入达到创纪录的510亿美元,同比增长66%[5] - 计算业务同比增长56%,主要受GB300产能提升驱动[5] - 网络业务收入82亿美元,同比增长162%[14] - 游戏业务收入43亿美元,同比增长30%[20] - 专业可视化业务收入7.6亿美元,同比增长56%[20] - 汽车业务收入5.92亿美元,同比增长32%[20] - GAAP毛利率为73.4%,非GAAP毛利率为73.6%,超出预期[21] - 库存环比增长32%,供应承诺环比增长63%[21] - 第四季度营收预期为650亿美元(±2%),环比增长14%[22] - 第四季度GAAP和非GAAP毛利率预期分别为74.8%和75%(±50个基点)[22] 各条业务线数据和关键指标变化 - 数据中心业务中,GB300贡献了Blackwell总营收的三分之二[10] - Hopper平台在推出第13个季度仍录得约20亿美元收入[10] - H20销售额约为5000万美元[10] - 网络业务中,NVLink、InfiniBand和Spectrum X以太网均推动增长[14] - 多数AI部署现在包含公司的交换机,以太网GPU附着率与InfiniBand大致相当[14] 各个市场数据和关键指标变化 - 超大规模云服务商正在将搜索、推荐和内容理解从经典机器学习转向生成式AI[5] - 分析师对2026年顶级CSP和超大规模云服务商的总资本支出预期已增至约6000亿美元,较年初高出2000多亿美元[6] - 基础模型构建商(如Anthropic、Mistral、OpenAI等)正在积极扩展计算规模[6] - 企业软件平台(如ServiceNow、CrowdStrike、SAP)正在整合公司的加速计算和AI堆栈[8] - 中国市场因地缘政治问题和竞争加剧,大额订单未能在本季度实现[11] 公司战略和发展方向和行业竞争 - 公司预计从今年初到2026年底,Blackwell和Rubin平台的收入可见度达5000亿美元[4] - 通过执行年度产品节奏和全栈设计扩展性能领导地位,公司相信将成为到本世纪末估计每年3-4万亿美元AI基础设施建设的首选[4] - Rubin平台按计划将在2026年下半年提升产能,其性能相比Blackwell将再次实现数量级提升[11] - 公司是唯一拥有AI纵向扩展、横向扩展和跨规模扩展平台的公司[15] - CUDA GPU的长使用寿命是相对于其他加速器的显著TCO优势[12] - 公司在最新MLPerf训练结果中横扫所有基准,Blackwell Ultra的训练时间比Hopper快5倍[16] 管理层对经营环境和未来前景的评论 - 客户继续倾向于三个平台转变,为加速计算、强大AI模型和代理应用带来指数级增长[4] - AI基础设施的需求持续超出预期,云服务售罄,GPU装机基础(包括新旧世代)完全利用[4][5] - 三个扩展定律(预训练、后训练和推理)仍然有效,并出现积极的良性循环[6][7] - 代理AI在各个行业和任务中激增,为用户增长提供动力[8] - 世界正在同时经历三个大规模平台转变,这是自摩尔定律诞生以来的首次[24] - 从通用CPU计算向GPU加速计算的转变是基础且必要的[25] - 向生成式AI的转变是变革性的,而向代理和物理AI的转变将是革命性的[26] 其他重要信息 - 本季度宣布的AI工厂和基础设施项目总计达500万GPU[9] - 包括xAI的Colossus 2(首个千兆瓦级数据中心)和Lilly的AI工厂(制药行业最强大数据中心)在内的多个标志性建设项目[10] - 与Fujitsu和Intel宣布战略合作,通过NVLink Fusion连接生态系统[15] - Arm宣布将集成NVLink IP,供客户构建与NVIDIA连接的CPU SoC[16] - 正在与OpenAI就战略合作伙伴关系进行工作,旨在帮助其建设和部署至少10吉瓦的AI数据中心[17] - 与Anthropic建立深度技术合作伙伴关系,这是Anthropic首次采用NVIDIA架构[18] - 物理AI已经是价值数十亿美元的业务, addressing 数万亿美元的机会[18] - 与Uber合作,基于新的NVIDIA Hyperion L4 Robotaxi参考架构扩展全球最大的L4级自动驾驶车队[20] 问答环节所有的提问和回答 问题: 关于Blackwell和Rubin平台5000亿美元收入可见度的更新 - 公司正按计划实现5000亿美元的预测,并有几个季度的时间来完成到2026年底的目标[27] - 数字将会增长,公司可能会获得更多订单,例如今天与KSA的协议(40万-60万GPU超过三年)和Anthropic的承诺,都有机会在已公布的5000亿美元之上增加[28] 问题: 关于AI基础设施建设的规模、融资能力和ROI,以及供应能否在未来12-18个月内赶上需求 - 公司的供应链规划良好,包括与TSMC、内存供应商和系统ODMs的合作[29] - 需要认识到AI不仅仅是代理AI,生成式AI正在改变超大规模云服务商过去在CPU上完成的工作[30] - 所有应用层都在增长,并且都运行在NVIDIA GPU上[31] - AI模型质量的提高推动了在不同用例中的采用,例如代码辅助是历史上增长最快的应用之一[32] - 预训练和后训练完全有效,Gemini 3利用了扩展定律,模型性能获得了巨大提升[33][34] 问题: 关于5000亿美元数字中每吉瓦的NVIDIA内容假设,以及长期3-4万亿美元数据中心市场中 vendor financing 的占比 - 每一代产品(从Ampere到Hopper,Hopper到Blackwell,Blackwell到Rubin)在数据中心中的占比都在增加,Hopper世代约为20-25,Blackwell世代约为30±,Rubin可能更高[34] - 架构的能源效率至关重要,性能每瓦直接转化为收入[35] - 客户融资由他们自己决定,增长机会将持续一段时间[36] - 超大规模云服务商的投资不仅改善了其规模、速度和成本,还提升了当前商业模式下的收入[37] - 代理AI是净新的消费和净新的应用,每个国家将资助自己的基础设施,多个行业尚未真正参与代理AI[38][39] 问题: 关于未来几年可能产生的约5000亿美元自由现金流的计划,以及投资生态系统(如Anthropic、OpenAI)的标准 - 现金将用于资助增长,确保有弹性的供应链,并支持强大的资产负债表[40] - 公司将继续进行股票回购[41] - 投资旨在扩大CUDA生态系统的覆盖范围,与OpenAI等公司的合作是深度技术合作,以支持其增长并扩大生态系统[42] - 投资于Anthropic是首次将其引入NVIDIA架构,NVIDIA的平台是世界上运行所有AI模型的单一平台[43][44] - 投资论点是与世界上最好的公司进行深度技术合作,扩大生态系统覆盖范围,并获得对非常成功的公司的投资份额[45][46] 问题: 关于未来一年AI推理在出货量中的占比预期,以及Rubin CPX产品的背景和目标客户应用 - CPX专为长上下文类型工作负载设计,其每美元性能和每瓦性能优异[47] - 三个扩展定律(预训练、后训练和推理)同时呈指数级扩展[48] - 推理在总市场中的占比很难精确预测,但希望推理能成为非常大的部分[49] - Blackwell在推理方面的领导地位是非凡的,GB200 NVLink 72的性能有10-15倍的提升,领导地位预计将持续多年[49][50] 问题: 关于客户追求 behind-the-meter power 时,最大的增长限制瓶颈(如电力、融资、内存或晶圆厂) - 所有问题都是限制因素,但都是可解决的[51] - 供应链方面有很好的可见性和控制,与合作伙伴在土地、电力、壳体和融资方面建立了合作关系[52] - NVIDIA的架构必须为客户提供最佳价值,是性能每TCO和性能每瓦最好的架构[52] - 客户数量和平台数量在增加,表明成功在加速[53] 问题: 关于下一年度毛利率维持在中70%范围的假设、成本增加来源、以及OpEx增长预期 - 下一年度有众所周知的输入价格需要应对,但通过成本改进、周期时间和产品组合,计划将毛利率维持在中70%范围[54] - OpEx方面,目标是确保工程团队和业务团队不断创新,以创造更多系统,将继续投资于软件、系统和硬件的创新[55] - 供应链提前很长时间就知道需求,并一直在进行谈判和合作,近期激增的影响已通过提前规划和谈判得到较好处理[56][57] 问题: 关于AI ASIC或专用XPU在架构建设中的作用是否发生变化 - 公司竞争的是团队,世界上没有多少团队擅长构建这些极其复杂的东西[57] - 如今需要构建整个机架和三种不同类型的交换机,问题复杂性更高,AI模型多样性巨大[58] - NVIDIA的优势在于:加速每个过渡阶段、擅长AI的每个阶段、运行每个AI模型、存在于每个云中、以及拥有多样化的承购方[59][60][61][62]