NVIDIA Vera CPU
搜索文档
Arm plc(ARM) - 2026 Q3 - Earnings Call Transcript
2026-02-05 07:02
财务数据和关键指标变化 - 第三季度总收入创纪录,达到12.4亿美元,同比增长26%,这是连续第四个季度收入超过10亿美元 [5][13] - 特许权使用费收入创纪录,达到7.37亿美元,同比增长27% [5][13] - 许可及其他收入为5.05亿美元,同比增长25% [5][14] - 非GAAP每股收益为0.43美元,接近指引区间的高端 [5][16] - 非GAAP运营费用为7.16亿美元,同比增长37%,主要由于研发投资强劲 [16] - 非GAAP运营收入为5.05亿美元,同比增长14%,运营利润率约为41% [16] - 年度化合同价值同比增长28%,连续多个季度保持强劲势头 [15] - 第四季度收入指引为14.7亿美元,上下浮动5000万美元,中点同比增长约18% [16] - 第四季度特许权使用费收入预计同比增长低双位数百分比,许可收入预计同比增长高双位数百分比 [17] - 第四季度非GAAP运营费用指引约为7.45亿美元,非GAAP每股收益指引为0.58美元,上下浮动0.04美元 [17] 各条业务线数据和关键指标变化 - **特许权使用费业务**:增长主要受智能手机(单位芯片特许权费率更高)和数据中心(收入持续三位数年增长)推动 [13] - **数据中心业务**:特许权使用费收入同比增长超过100%,预计未来几年将成为公司最大业务,超过移动业务 [5][13] - **智能手机业务**:所有主要安卓OEM厂商都在推出基于Armv9和CSS的芯片,其特许权使用费收入增长远快于市场 [13] - **边缘AI设备**(如智能手机)的特许权使用费收入持续快速增长 [13] - **物理AI业务**:汽车市场实现双位数同比增长,为特许权使用费表现做出贡献 [14] - **许可业务**:增长由对下一代架构的强劲需求以及与关键客户的更深层次战略合作推动 [14] - **计算子系统**:本季度签署了两份新的CSS许可协议,总计达到21份CSS许可,涉及12家公司,目前有5家客户正在出货基于CSS的芯片 [7] - **CSS业务影响**:去年占比接近双位数,今年已进入双位数(十几),预计未来几年可能超过50% [56] 各个市场数据和关键指标变化 - **数据中心市场**:Arm的份额在顶级超大规模云提供商中预计将达到50% [8] - **超大规模云提供商进展**:AWS推出第五代Graviton处理器(192核),微软推出Cobalt 200(132核),谷歌预览第二代Arm服务器处理器,NVIDIA下一代Vera CPU拥有88个Arm核心 [8][9] - **边缘与物理AI市场**:为Arm开辟了新的增长机会,其低功耗、可预测延迟和始终在线特性非常适合设备端AI代理 [10] - **客户案例**:Rivian推出基于Arm的第三代自动驾驶计算机,特斯拉的Optimus人形机器人采用定制Arm AI处理器,NVIDIA的Jetson Thor和Qualcomm的DragonBoard平台在机器人领域推广Arm方案 [11] 公司战略和发展方向和行业竞争 - **AI战略重组**:围绕三个业务单元组织:边缘AI(智能手机和物联网)、物理AI(汽车和机器人)、云AI(数据中心和网络) [6] - **计算子系统战略**:CSS帮助客户降低集成风险和复杂性,加快上市时间,随着需求扩大,增加了Arm每芯片提供的价值,对特许权使用费产生显著顺风 [7] - **行业趋势与竞争定位**:AI推理向基于代理的模式转变,增加了CPU的重要性,Arm基于CPU芯片提供领先的每瓦性能,使客户能够扩展核心数量并运行始终在线的AI工作负载 [8][21] - **平台与生态优势**:Arm平台覆盖毫瓦到吉瓦的功耗范围,拥有超过2200万开发者的生态系统,占全球开发者总数的80%以上 [11] - **长期愿景**:随着越来越多应用转向代理AI,Arm将成为连接云、边缘和物理AI用例的计算平台 [12] 管理层对经营环境和未来前景的评论 - **对前景信心**:当前客户需求的强度,加上结构性更高特许权费率的长周期合同基础不断扩大,使公司对未来收入状况的信心日益增强 [17] - **投资周期**:这种信心使公司能够投资于下一代架构、计算子系统和硅技术,以实现更高性能、更高效率和更多AI用例,形成客户需求与雄心勃勃投资之间的良性循环 [17] - **内存供应影响**:管理层分析了智能手机内存供应链限制可能导致的单位销量下降(如联发科提及约15%),但认为对Arm的影响有限。若智能手机销量下降20%,对智能手机特许权使用费的影响最多为4%-6%,对总特许权使用费的负面影响约为1%-2% [23][24] - **云AI业务抵消风险**:云AI或基础设施业务的持续增长超出预期,其增长水平足以补偿内存和移动侧的风险 [24] - **长期增长预期**:2026财年增长至少20%,目前指引中点约为22%,2027财年20%的增长率仍然非常合理,公司并未放弃此目标 [62] 其他重要信息 - **软银贡献**:与软银的技术许可和设计服务协议在本季度贡献了2亿美元收入,预计未来每季度2亿美元是合理的运行速率 [15][38] - **软银持股**:软银创始人孙正义对出售Arm股票毫无兴趣,他非常看好公司的长期前景 [30] - **未来活动**:公司将于3月24日举办活动,但未提前透露任何细节 [18] - **数据中心收入规模**:此前曾表示刚达到两位数占比,由于增长远快于其他业务,预计占比在十几到接近20%之间,未来2-3年可能达到或超过智能手机业务规模(占总业务40%-45%) [39] 总结问答环节所有的提问和回答 问题: Arm的CPU在AI和云数据中心中的作用,以及AI代理普及后的变化 [21] - **回答**: AI从训练转向推理,特别是基于代理的AI,非常适合CPU处理,因为CPU功耗低、始终在线、延迟低。数据中心功耗限制下,需要更多、更高效的CPU核心,这对Arm构成顺风。超大规模云提供商和NVIDIA的新一代CPU都增加了核心数量,这一趋势预计将持续 [21][22] 问题: 如何看待2027财年特许权使用费增长的风险,特别是消费电子潜在需求破坏和内存的影响 [23] - **回答**: 分析了智能手机单位销量可能下降的影响。合作伙伴倾向于保护高端市场(CSS和v9特许权费率最高),供应链限制主要影响低端市场(v8及更旧版本,特许权费率低得多)。假设销量下降20%,对智能手机特许权使用费影响约2%-4%,对总特许权使用费影响约1%-2%。云AI业务的强劲增长足以抵消这些风险,因此对明年特许权使用费影响不太担心 [23][24][25] 问题: 软银是否需要出售Arm股票来为其投资融资,以及对公司股价的影响 [29] - **回答**: 软银创始人孙正义直接表示对出售任何Arm股票毫无兴趣,他非常看好公司长期前景,相关传闻不实 [30] 问题: 特许权使用费增长预测减速的原因,是基数问题还是其他因素变化 [31] - **回答**: 明年特许权使用费的绝对金额预期基本不变,增长率下降主要是由于本季度和上季度的超预期表现(如Q3增长27% vs 预期20%)带来了更高的比较基数。目前尚不确定近期强势是否会延续到下一年,内存和晶圆短缺的讨论有影响,但对Arm的影响小于对无晶圆厂半导体公司。总体而言,明年特许权使用费绝对金额预计接近年初预期,后续会更新 [32][33] 问题: 数据中心收入的具体金额,以及软银贡献200万美元与之前预期的差异 [37] - **回答**: 数据中心收入细节每年提供一次,此前表示刚达到两位数占比,预计在十几到接近20%之间,未来2-3年可能达到或超过智能手机业务规模。软银上季度贡献为1.78亿美元,本季度200万美元是完整季度的影响,预计未来每季度200万美元是合理的运行速率 [38][39] 问题: 向v9更高特许权费率的迁移如何抵消智能手机销量下降 [42] - **回答**: 在智能手机中,v9正全面转向CSS。每个智能手机周期都会交付全新的CSS,其特许权费率通常逐年提高。因此,v9在智能手机中的增长应被视为CSS的持续采用和每年特许权费率的提升 [42] 问题: 软银执行AI路线图,Arm是否会为其定制ASIC,以及时间和对2027财年的影响 [46] - **回答**: 无法就具体产品置评 [46] 问题: Arm IP在AI数据中心半导体中的渗透率现状及未来3-5年演变 [49] - **回答**: 未来3-5年,数据中心芯片设计将演变。基于代理的推理将需要更多CPU,可能催生更多定制CPU芯片。推理工作负载的特定解决方案(如Groq)将继续扩展创新。AI工作负载将迁移到更小尺寸设备(物理AI、边缘设备),那里功耗限制更严,需要不同的IP和解决方案组合。绝大多数现有计算平台已是Arm基础,这为Arm塑造未来方向提供了巨大机会 [49][50] 问题: CSS当前在特许权使用费中的占比,以及未来2-3年的可能占比 [54] - **回答**: CSS去年占比接近双位数,今年已进入双位数(十几),预计未来几年可能超过50%。加速采用CSS的主要驱动力是客户需要缩短周期时间,CSS通常能将周期时间减半。所有有机会签署下一代版本的CSS客户都已续签,这体现了其价值 [56][57] 问题: 对2028财年的早期展望 [61] - **回答**: 2026财年增长至少20%,目前指引中点约为22%。2027财年20%的增长率仍然合理。对于2028财年,目前尚未提供任何指引,公司在考虑其他可能的产品/服务,其影响仍在评估中,未来会提供更新 [62] 问题: 内存影响是否已反映在下季度低双位数特许权使用费增长中,以及物料清单压力是否影响CSS和v9的采用 [66] - **回答**: 内存影响非常小,不是增长指引的主要驱动因素。下季度增长更多与季节性以及去年同期不寻常的发布时间(联发科芯片)导致的比较基数有关。关于CSS定价对物料清单的影响,未看到任何影响。加速上市时间带来的价值远超客户考虑的任何成本因素。鉴于芯片设计复杂性增加和晶圆厂周期延长,错过最初几个月出货对利润至关重要,因此价值创造和客户利润提升是决策关键 [67][69][70] 问题: 2027财年运营费用(尤其是研发)增长是否会继续快于收入增长 [72] - **回答**: 目前预期第四季度到第一季度的环比增长将与去年相似(去年是低双位数环比增长)。明年第一季度之后的增长可能会比今年更加缓和。今年出现了显著的逐季增长,预计明年不会那么显著。随着进入新财年,会提供更多细节 [73] 问题: 如何看待近期股市对软件板块的反应,以及AI除了驱动需求外,将如何影响Arm的业务和芯片设计 [76] - **回答**: 不便评论股市短期反应。从技术颠覆历史看,市场有时会对广泛影响感到紧张。对于Arm而言,AI不会很快取代物理芯片,硬件是运行软件所必需的。AI在企业中的实际应用仍处于非常早期阶段,集成大型系统和改变软件工作负载非常复杂。AI的支出规模巨大(如谷歌宣布1800亿美元资本支出),这处于未知领域,可能引发市场紧张。但从长远看,对计算的需求巨大,Arm处于有利位置 [77][78][79][80] 问题: 对SRAM等不同内存结构的看法及其对业务的意义,以及Arm能效提升的节奏 [83] - **回答**: 功耗效率是Arm持续关注的重点,尤其是在小型设备中,电池寿命和空间限制严格,而计算需求(包括AI)不断增加。Arm作为许多平台的现有供应商,定位良好。关于SRAM和内存技术,CPU和内存紧密相连,公司深度参与包括SRAM在内的各种内存技术和解决方案的研究,以应对AI日益增长的需求。每个终端应用都将受到AI影响,并相信将通过Arm运行AI,因此公司正在投入大量资源进行创新 [85][86]
黄仁勋CES放出大杀器:下一代Rubin架构推理成本降10倍
机器之心· 2026-01-06 08:31
文章核心观点 - 英伟达在CES 2026上发布了下一代全栈AI技术平台,旨在引领计算行业革新,其核心包括全新的Rubin AI超级计算平台、面向自动驾驶的开源视觉-语言-动作模型Alpamayo 1,以及针对物理人工智能(机器人)的全套开源模型与框架 [1][5][33] 下一代AI超级计算平台:Rubin - 推出全新NVIDIA Rubin平台,包含六款协同设计的芯片:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6 Ethernet Switch,目标是构建成本、性能与安全性全面领先的AI超级计算机 [8] - Rubin平台引入五项创新,包括第六代NVLink、Transformer引擎、机密计算、RAS引擎和Vera CPU,其每Token推理成本比前代Blackwell平台低高达10倍,训练MoE模型所需的GPU数量减少4倍 [13] - 平台提供两种主要形态:Vera Rubin NVL72机架级解决方案(集成72个Rubin GPU和36个Vera CPU)和HGX Rubin NVL8服务器主板(通过NVLink连接8个Rubin GPU)[18] - 第六代NVLink每个GPU提供3.6TB/s带宽,Vera Rubin NVL72机架总带宽高达260TB/s;Rubin GPU为AI推理提供50 petaflops的NVFP4计算能力;机架模块化设计使组装维护速度比Blackwell快高达18倍 [17] - Rubin平台已全面投产,基于该平台的产品将于2026年下半年通过合作伙伴上市;首批云服务提供商包括AWS、Google Cloud、微软、OCI及CoreWeave等;服务器合作伙伴包括思科、戴尔、HPE等;Anthropic、Meta、OpenAI等AI实验室计划利用该平台 [19][20] 面向自动驾驶的开源模型与生态:Alpamayo - 发布NVIDIA Alpamayo系列开源AI模型、仿真工具及数据集,旨在加速下一代基于推理的L4级自动驾驶汽车开发 [21][23] - Alpamayo 1是全球首个面向自动驾驶的开源大规模推理视觉语言动作模型,拥有100亿参数,通过视频输入生成行驶轨迹及展示决策逻辑的推理痕迹 [30] - 该模型并非直接车端运行,而是作为“教师模型”供开发者微调和蒸馏,以融入其自动驾驶技术栈;模型权重和推理脚本已开源 [30][31] - 配套开源工具包括:完全开源的端到端高保真仿真框架AlpaSim,以及超过1700小时驾驶数据的物理AI开源数据集,涵盖广泛地域和稀有复杂场景 [31] - 该生态已获得行业支持,包括Lucid、捷豹路虎、Uber等出行领军者;英伟达演示了奔驰新款CLA在旧金山的全自动驾驶,并提及吉利和小米等国内厂商将接入其智能驾驶模型 [32] 物理人工智能与机器人开源生态 - 推出针对物理人工智能的全新开源模型、框架及AI基础设施,旨在加速机器人开发全生命周期,推动构建能快速学习多项任务的通用型专家机器人 [35][36] - 发布多款开源模型,包括:世界模型Cosmos Transfer 2.5与Predict 2.5、推理视觉语言模型Cosmos Reason 2、以及专为人形机器人设计的推理视觉语言动作模型Isaac GR00T N1.6 [40][41] - 发布全新开源框架以简化机器人开发流程:Isaac Lab-Arena框架用于模拟环境中大规模机器人策略评估和基准测试;云原生编排框架OSMO用于统一管理从合成数据生成到测试的工作流 [43][45] - 与Hugging Face合作,将Isaac和GR00T技术集成到LeRobot开源机器人框架中,连接英伟达的200万机器人开发者与Hugging Face的1300万AI构建者 [48] - 多家人形机器人开发商已采用NVIDIA Jetson Thor机器人计算机,包括NEURA Robotics、Richtech Robotics、逐际动力、LG电子、波士顿动力等,以增强机器人导航和操作能力 [50][51]
Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions
Prnewswire· 2026-01-06 07:00
核心观点 - 超微电脑宣布扩大制造产能和液冷能力,并与英伟达合作,旨在率先交付针对英伟达Vera Rubin和Rubin平台优化的数据中心规模解决方案,为客户在下一代AI基础设施中提供决定性竞争优势 [1] - 公司凭借其数据中心构建块解决方案和先进的直接液冷技术,结合美国本土内部设计/制造,加速了下一代液冷AI基础设施的部署时间 [1] 产品与技术合作 - 超微电脑通过与英伟达的加速开发和合作,能够快速部署旗舰产品英伟达Vera Rubin NVL72和英伟达HGX™ Rubin NVL8系统 [1] - 公司提供针对英伟达Vera Rubin平台优化的旗舰产品,包括NVIDIA Vera Rubin NVL72超级集群和2U液冷英伟达HGX Rubin NVL8系统 [5] - NVIDIA Vera Rubin NVL72超级集群将72个英伟达Rubin GPU和36个英伟达Vera CPU等统一为一致平台,提供3.6百亿亿次浮点运算的NVFP4性能、1.4 PB/s的HBM4带宽和75 TB快速内存 [5] - 2U液冷英伟达HGX Rubin NVL8系统为AI和HPC工作负载优化,提供400千万亿次浮点运算的NVFP4性能、176 TB/s的HBM4带宽、28.8 TB/s的NVLink带宽和1600 Gb/s的网络连接 [5] - 平台关键特性包括:NVLink™ 6高速互连、性能较上一代提升2倍的英伟达Vera CPU、第三代Transformer引擎、第三代机密计算和第二代RAS引擎 [5] - 平台还受益于新发布的英伟达Spectrum-X以太网光子网络,基于Spectrum-6以太网ASIC,与传统可插拔光模块相比,能效提升5倍,可靠性提升10倍,应用正常运行时间提升5倍 [6] 制造与部署优势 - 超微电脑的DCBBS方法实现了简化生产、广泛的定制选项和更快的部署时间 [1] - 公司在美国、台湾和荷兰进行内部设计和制造,利用全球运营实现规模和效率 [8] - 公司对扩大制造设施和端到端液冷技术堆栈的战略投资,旨在简化全液冷英伟达Vera Rubin和Rubin平台的生产和部署 [7] - 结合模块化DCBBS架构,这些能力通过实现快速配置、严格验证和高密度平台的无缝扩展,加速了部署和上线时间,确保客户获得率先上市的优势 [7] 液冷技术 - 超微电脑在NVIDIA Vera Rubin NVL72超级集群的实施中采用了增强的数据中心规模液冷技术堆栈,包括行内冷却液分配单元,支持可扩展的温水冷却操作,最大限度减少能耗和用水,同时最大化密度和效率 [5] - 2U液冷英伟达HGX Rubin NVL8系统可选配高密度2U母线排设计,采用公司行业领先的先进直接液冷技术 [5] - 公司扩大的制造能力和行业领先的液冷专业知识,赋能超大规模企业和企业以无与伦比的速度、效率和可靠性大规模部署英伟达Vera Rubin和Rubin平台基础设施 [2]
NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer
Globenewswire· 2026-01-06 06:20
产品发布与核心定位 - NVIDIA于2026年1月5日在CES上正式推出下一代AI平台Rubin,该平台包含六款新芯片,旨在以最低成本构建、部署和保护全球最大、最先进的AI系统,加速AI主流化进程 [2] - Rubin平台通过六款芯片的极端协同设计,大幅缩短训练时间并降低推理token成本,这六款芯片包括NVIDIA Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机 [3] - 公司创始人兼CEO黄仁勋表示,Rubin平台在AI训练和推理需求激增的时刻适时推出,凭借每年发布新一代AI超级计算机的节奏和六芯片的极端协同设计,Rubin向AI下一个前沿领域迈出了一大步 [4] 性能突破与技术创新 - 与上一代Blackwell平台相比,Rubin平台将推理token成本降低高达10倍,训练MoE模型所需的GPU数量减少4倍 [5][8] - Rubin平台引入了五项创新技术,包括第六代NVLink互连技术、Transformer Engine、机密计算、RAS Engine以及NVIDIA Vera CPU,这些突破将加速智能体AI、高级推理和大规模专家混合模型推理 [5] - 第六代NVLink技术为大规模MoE模型提供快速无缝的GPU间通信,每个GPU提供3.6TB/s带宽,而Vera Rubin NVL72机架提供260TB/s带宽,超过整个互联网的带宽 [10] - Rubin GPU采用第三代Transformer Engine,具备硬件加速自适应压缩功能,可为AI推理提供50 petaflops的NVFP4计算能力 [20] - Spectrum-X以太网光子共封装光学交换系统为AI应用提供10倍可靠性和5倍正常运行时间,同时实现5倍能效提升 [19] 生态系统与合作伙伴支持 - 全球领先的AI实验室、云服务提供商、计算机制造商和初创公司预计将采用Rubin平台,包括AWS、Anthropic、谷歌、Meta、微软、OpenAI、甲骨文等超过25家行业巨头 [6] - OpenAI CEO Sam Altman表示,智能随算力扩展,Rubin平台有助于持续扩展这一进程,让先进智能惠及所有人 [7] - 微软下一代Fairwater AI超级工厂将采用NVIDIA Vera Rubin NVL72机架级系统,规模将扩展至数十万个NVIDIA Vera Rubin超级芯片 [8] - CoreWeave、AWS、谷歌云、微软和OCI等云提供商将于2026年下半年率先部署基于Vera Rubin的实例 [22] - 思科、戴尔、HPE、联想和超微等公司预计将提供基于Rubin产品的各类服务器 [25] - Anthropic、Meta、Mistral AI、OpenAI、xAI等AI实验室期待利用Rubin平台以更低的延迟和成本训练更强大模型,并服务长上下文、多模态系统 [26] 产品形态与系统设计 - Rubin平台提供两种主要形态:NVIDIA Vera Rubin NVL72机架级解决方案和NVIDIA HGX Rubin NVL8系统 [4] - Vera Rubin NVL72是一个统一的系统,结合了72个Rubin GPU、36个Vera CPU、NVLink 6、ConnectX-9 SuperNIC和BlueField-4 DPU [15] - HGX Rubin NVL8是一个服务器板,通过NVLink连接八个Rubin GPU,支持基于x86的生成式AI平台,加速AI和高性能计算工作负载的训练、推理和科学计算 [16] - NVIDIA DGX SuperPOD可作为大规模部署Rubin系统的参考架构,集成DGX Vera Rubin NVL72或DGX Rubin NVL8系统以及BlueField-4 DPU、ConnectX-9 SuperNIC等组件 [17] 关键组件与新增功能 - NVIDIA Vera CPU专为智能体推理设计,采用88个NVIDIA定制Olympus核心,是大型AI工厂能效最高的CPU [20] - Rubin平台首次在机架级平台提供NVIDIA机密计算,保护全球最大的专有模型及训练和推理工作负载 [20] - 第二代RAS Engine具备实时健康检查、容错和主动维护功能,其模块化无缆托盘设计使组装和维护速度比Blackwell快18倍 [20] - NVIDIA推出全新的AI原生存储基础设施“推理上下文内存存储平台”,由BlueField-4驱动,旨在实现千兆级别的推理上下文扩展 [12] - BlueField-4还引入了高级安全可信资源架构,为AI基础设施构建者提供单一可信控制点,以安全配置、隔离和操作大规模AI环境 [13] 生产与上市时间 - NVIDIA Rubin已进入全面生产阶段,基于Rubin的产品将于2026年下半年通过合作伙伴上市 [22] - CoreWeave将于2026年下半年开始将基于NVIDIA Rubin的系统集成到其AI云平台中 [24]