Vera Rubin 计算平台
搜索文档
英伟达不想只卖 GPU
36氪· 2026-03-19 07:49
公司战略定位 - 公司重新定义自身为一家垂直整合、横向开放的计算公司,这与外界对其作为专注GPU芯片公司的固有印象截然不同 [1][2] - 公司战略从专注于高性能GPU和CUDA生态,转向在硬件上进行垂直整合,在软件上走向合作开放 [2] - 公司CEO提出“AI五层蛋糕”理论,认为AI产业从下到上依次为能源、芯片、数据中心、模型、应用,公司正在每一层进行押注,以推动整个AI产业链流动并做大市场 [14][16] 新一代硬件平台:Vera Rubin - 下一代计算平台Vera Rubin从单颗芯片进化为由7款定制芯片和5种不同机架组成的芯片系统 [3] - 通过NVLink 6网络,将72颗Rubin GPU和36颗Vera CPU在微秒级延迟下连接成一个超级芯片 [3] - 其中Vera CPU集成了256颗液冷处理器,计算效率是传统CPU的两倍,并首次作为独立CPU产品向市场出售 [3] - 与上一代Blackwell芯片整合后,Vera Rubin平台单卡推理能力最高提升5倍,大模型生成Token成本降低90% [3] - 阿里巴巴、字节跳动和Cloudflare等云服务商已宣布将部署,预计今年下半年向首批客户交付 [3] 关键硬件收购与整合:Groq 3 LPU - 公司斥资200亿美元收购初创公司Groq,获取其低延迟推理核心技术 [4] - 在Vera Rubin平台中整合了Groq 3 LPU(语言处理单元),用于AI推理任务加速 [4] - Groq 3 LPU将数据留在芯片内处理,无需外置高宽带内存,因此在问答和内容生成时延迟更低、更稳定,弥补了公司原有架构在推理速度上的不足 [4] - 公司通过专门的“Groq 3 LPX推理托盘”,将低延迟技术变为可拔插模块,既弥补短板也消除了潜在竞争风险 [4] 消费级SoC产品:N1X芯片 - 公司与联发科共同研发基于Arm架构的N1X SoC,主要面向高端AI PC和笔记本电脑市场 [5] - N1X效仿苹果M系列芯片,将CPU、GPU和AI加速单元集成在同一物理内存池上,以优化延迟和能耗 [6] - 此举是公司继移动端“丹佛计划”和数据中心Grace CPU后,再次冲击消费级SoC市场,意图在个人PC处理器市场分一杯羹 [6] 软件生态战略:开放与合作 - 公司与开源项目OpenClaw合作,推出面向企业市场的开源AI智能体平台NemoClaw,帮助企业部署、运行和管理AI Agent [9] - NemoClaw不限制硬件,可运行在英伟达、Intel和AMD的芯片上,标志着公司主动解绑了其核心软件生态与自家硬件的绑定 [10] - 公司判断,企业级应用的核心基础是处理结构化数据(如SQL、Spark),因此致力于让企业在处理数据和构建Agent工作流时习惯调用NemoClaw的API和微服务 [13] - 公司近期发布了自身的大语言模型Nemotron 3,以完善软件生态闭环 [13] - 公司CEO认为,用谁的软件比软件在谁家芯片上运行更重要,开源NemoClaw旨在降低企业使用门槛,做大整个AI市场需求,从而带动对高端算力的需求 [14] 市场前景与竞争格局 - 公司CEO预计,到2027年,以Blackwell和下一代Vera Rubin为主的AI加速芯片累积营收将达到一万亿美元 [2] - 云厂商自研芯片(如微软Maia、谷歌TPU)已获得市场近40%的份额 [12] - 公司通过垂直整合硬件(CPU、GPU、交换机、网络协议、低延迟模块)和开放软件生态,显著提升了竞争者的替代门槛 [7] - 公司在AI基础设施硬件上采取全面覆盖策略,意图赚取产业链上的每一块利润 [8]
全球AI算力革命,生态之争加速演绎
华创证券· 2026-01-16 12:15
报告行业投资评级 - 推荐(维持)[3] 报告核心观点 - 全球AI算力革命正加速芯片争霸赛,竞争焦点从芯片性能转向整体生态构建[6][8] - AI算力需求正从“通用训练”向“专用推理”转变,“开放互联+专用芯片”模式正在挑战英伟达的封闭生态体系[6][8] - 超大规模云厂商通过自研芯片强化垂直整合,推动产业向专用化、定制化发展,已成为不可逆的潮流[6][8] 全球AI算力需求与市场格局 - **智能算力需求快速增长**:2023年全球算力总规模为1397 EFlops,其中智能算力规模(换算为FP32)为875 EFlops,占比达63%[14];预计2030年全球算力规模将超过16 ZFlops,智能算力占比将超过90%[6][14] - **英伟达在AI芯片市场占据主导**:2024年搭载GPU的AI服务器占比约为71%,其中英伟达的市场占有率接近90%,AMD约为8%[6][19];ASIC芯片在AI服务器中的占比已攀升至26%[19] - **算力计量与规模**:1 EFLOPS(每秒一百亿亿次浮点计算)约等于25万台主流双路服务器或200万台主流笔记本的算力输出[12];2023年全球已安装的英伟达AI算力每年增长约2.3倍[24] 主要参与者竞争态势 英伟达:全栈计算基础设施领导者 - **构建全栈解决方案**:提供包括CUDA编程模型、数百个软件库、SDK和API在内的全栈计算基础设施[6][49] - **硬件快速迭代**:2024年推出Blackwell架构GPU,拥有2080亿个晶体管,处理万亿参数模型的速度比前代快30倍[53];2026年1月发布Vera Rubin计算平台,重新设计了Vera CPU、Rubin GPU等6款芯片,实现全平台协同创新[6][61] - **CUDA生态构筑护城河**:CUDA累计下载量超过5300万次,在全球拥有500万个开发者、4万家公司及数以千计的生成式AI公司[6][69] - **数据中心业务驱动高增长**:2025财年数据中心业务收入达1151.9亿美元,同比增长142.4%,占总收入比重达88.3%[6][65] 博通:AI专用芯片领域的“隐形冠军” - **聚焦ASIC芯片市场**:在ASIC市场以55%-60%的份额位居第一,与谷歌、Meta、亚马逊等超大规模客户建立长期合作关系[6][43] - **硬件与软件协同增长**:2025财年半导体业务收入达368.6亿美元,占总收入58%,其中AI业务营收达200亿美元,同比增长65%;基础设施软件业务收入270亿美元,同比增长26%[6][80] - **技术积累深厚**:拥有约1.9万项专利,并在3.5D系统级封装、高速互连等领域具备领先技术[83] AMD:完善生态建设,性能快速提升 - **GPU性能对标英伟达**:2025年6月发布的MI350系列AI芯片在FP4精度下峰值算力达20 PFLOPS,是上一代MI300X的4倍,推理性能提升35倍[108];MI355X在浮点性能上与英伟达B200大致相当,且拥有288GB HBM3e内存(比B200多108GB)[108][109] - **明确产品路线图**:计划于2026年推出MI400系列(MI455X),2027年推出MI500系列,并承诺在4年内实现1000倍的AI性能提升[6][111] - **加强软件生态**:发布ROCm 7.0软件平台,使MI300X的推理性能提升约3.5倍,训练有效浮点性能提升3倍[116] - **服务器CPU市占率突破**:2025年AMD在服务器CPU市场份额首次达到50%,超越英特尔[117] 超大规模云厂商:自研芯片与垂直整合 - **谷歌云**:自研TPU已迭代至第七代“Ironwood”,峰值算力达4614 TFLOPS,性能接近英伟达B200[118];2025年TPU预计出货250万片,并开始对外出售以扩大生态影响力[118][120] - **亚马逊云科技(AWS)**:推出Trainium芯片,其Trainium 3(3纳米工艺)性能较上一代提升4倍,与同等GPU系统相比可将AI模型训练和运行成本降低40%[42] - **行业趋势**:谷歌、Meta、亚马逊、微软等正通过自研芯片推进算力自主化,旨在降低外部依赖、优化成本结构[6][118] 行业生态竞争与融合趋势 - **英伟达稳居半导体销售榜首**:2025年第三季度全球半导体销售额达2084亿美元,英伟达以570亿美元收入位居第一[6][93] - **开放标准联盟挑战封闭生态**:科技巨头成立超以太网联盟(UEC)对标英伟达InfiniBand,成立UALink联盟对标NVLink,以“开放互联+专用芯片”重塑竞争格局[6][100] - **生态竞争加剧**:英伟达推出半开放的NVLink Fusion平台并收购Groq布局LPU技术[100][101];博通推出扩展以太网(SUE)框架进军Scale-Up市场[102];竞争着力点从芯片性能转向整体生态构建[8] 投资建议 - **关注国产算力自主化进程**:A股建议关注寒武纪、海光信息、摩尔线程、拓维信息、浪潮信息、中科曙光、工业富联、中际旭创、新易盛、中国移动、中国电信等[6] - **关注全球核心标的**:美股建议关注英伟达、博通、台积电、甲骨文、超威半导体(AMD)、ARISTA网络、戴尔科技、迈威尔科技、VERTIV、数字房地产信托、COREWEAVE、CREDO TECHNOLOGY、NEBIUS、超微电脑等[6]