Workflow
Grace CPU
icon
搜索文档
英伟达重磅布局“服务器CPU”,黄仁勋:将推出Vera CPU
华尔街见闻· 2026-01-27 17:56
公司战略布局 - 英伟达正通过推出代号为"Vera"的全新CPU并首次作为独立产品推向市场,以巩固其在AI基础设施市场的统治地位,并消除AI供应链中的算力瓶颈[2] - 此举标志着公司在计算堆栈层面的重大战略转折,旨在为客户提供更具成本效益的高端计算替代方案,使其工作负载能在英伟达的CPU和GPU上运行,这将对现有服务器处理器市场格局产生直接影响[4] - 这一战略不仅针对高端机架级解决方案,也开始向更广泛的通用计算市场渗透,试图构建一个全栈式的计算生态系统[6] - 公司大力推行独立CPU策略的背后,是对AI供应链瓶颈的深刻洞察,随着代理人工智能应用的加速普及,服务器CPU正逐渐成为制约系统整体性能的关键因素[16] 产品与技术细节 - Vera CPU基于下一代定制Arm架构,代号为"Olympus",配备了88个核心和176个线程,并引入了"空间多线程"技术[9][10] - 该CPU配备了1.5 TB的系统内存,是上一代Grace CPU的三倍,同时采用SOCAMM LPDDR5X技术,实现了1.2 TB/s的内存带宽[10] - 通过NVLink-C2C互连技术,其相干内存互连速度高达1.8 TB/s,是Grace的两倍[10] - 相比于Grace CPU,Vera每个核心拥有2MB的L2缓存(是Grace的两倍),以及162MB的共享L3缓存(提升了42%)[12] - Vera CPU是英伟达下一代Vera-Rubin平台的核心组件,该平台将Vera CPU与代号为"Rubin"的下一代GPU相结合[13] - Rubin GPU预计将采用HBM4内存,带宽高达22 TB/s,是Blackwell GPU的2.75倍[14] 关键合作与市场推广 - 新兴云服务商CoreWeave将成为首家部署Vera CPU作为独立基础设施选项的客户,英伟达已承诺向其追加20亿美元投资[2] - CoreWeave正计划在2030年前建设5吉瓦(GW)的AI工厂[7] - 除了CoreWeave,英伟达Vera-Rubin系统的早期客户名单还包括亚马逊AWS、谷歌Cloud、微软Azure、甲骨文Cloud Infrastructure等云巨头,以及Lambda、Nebius和Nscale等新兴玩家[17] - Vera-Rubin NVL72平台的核心芯片已从台积电返回,目前正在进行调试并发送给关键合作伙伴,预计将在2026年下半年开始量产[13] 市场影响与竞争定位 - 通过提供独立的Vera CPU,公司不仅能够为客户提供绕过传统x86架构瓶颈的替代方案,还能通过更低成本的选项吸引预算有限但希望获得高端CPU能力的客户[17] - 尽管部分云服务商正在自研加速器,但英伟达正通过在服务器CPU生态系统中加大投入,试图在下一代AI基础设施竞争中保持其核心地位[17] - 此次布局展示了公司在"后Blackwell时代"的雄心[5]
英伟达重磅布局“服务器CPU”,黄仁勋:将推出Vera CPU
华尔街见闻· 2026-01-27 11:07
公司战略与市场布局 - 英伟达正通过推出代号为"Vera"的全新CPU并首次将其作为独立产品推向市场,旨在消除AI供应链中的算力瓶颈,全面支持代理人工智能(Agentic AI)的发展,进一步巩固其在AI基础设施市场的统治地位 [1] - 公司此举意在解决服务器CPU已成为AI供应链主要瓶颈的问题,为客户提供更具成本效益的高端计算替代方案,使其不仅能在英伟达GPU上运行计算堆栈,也能在英伟达CPU上处理工作负载,这将对现有的服务器处理器市场格局产生直接影响 [1] - 这一战略不仅针对高端机架级解决方案,也开始向更广泛的通用计算市场渗透,试图构建一个全栈式的计算生态系统,展示了公司在"后Blackwell时代"的雄心 [2] 关键合作与投资 - 英伟达已承诺向新兴云服务商CoreWeave追加20亿美元投资,CoreWeave将成为首家部署Vera CPU作为独立基础设施选项的客户 [1][3] - 英伟达将以每股87.20美元的价格购买CoreWeave的A类普通股,这笔高达20亿美元的额外投资将直接支持CoreWeave的基础设施扩张,CoreWeave正计划在2030年前建设5吉瓦(GW)的AI工厂 [3] - 与以往通常将CPU作为整体超级芯片或机架系统一部分的销售策略不同,英伟达此次明确将提供Vera CPU作为基础设施的"独立部分",客户在构建计算堆栈时将拥有更大的灵活性 [3] 产品技术规格与性能 - Vera CPU基于下一代定制Arm架构,代号为"Olympus",配备了88个核心和176个线程,并引入了"空间多线程"技术 [4] - 在内存性能方面,Vera配备了1.5 TB的系统内存,是上一代Grace CPU的三倍,同时采用SOCAMM LPDDR5X技术,实现了1.2 TB/s的内存带宽 [4] - 通过NVLink-C2C互连技术,其相干内存互连速度高达1.8 TB/s,是Grace的两倍 [4] - 相比于Grace CPU,Vera在缓存设计上进行了大幅升级,每个核心拥有2MB的L2缓存(是Grace的两倍),以及162MB的共享L3缓存(提升了42%) [6] 产品平台与路线图 - Vera CPU是英伟达下一代Vera-Rubin平台的核心组件,该平台将Vera CPU与代号为"Rubin"的下一代GPU相结合 [6] - Rubin GPU预计将采用HBM4内存,带宽高达22 TB/s,是Blackwell GPU的2.75倍 [6] - 英伟达高性能计算和AI工厂解决方案高级总监透露,Vera-Rubin NVL72平台的核心芯片已从台积电返回,目前正在进行调试并发送给关键合作伙伴,预计将在2026年下半年开始量产 [6] 市场影响与客户拓展 - 通过提供独立的Vera CPU,英伟达能够为客户提供绕过传统x86架构瓶颈的"变通方案",并通过更低成本的选项吸引那些希望获得高端CPU能力但预算有限的客户 [7] - 除了CoreWeave,英伟达Vera-Rubin系统的早期客户名单还包括亚马逊AWS、谷歌Cloud、微软Azure、甲骨文Cloud Infrastructure等云巨头,以及Lambda、Nebius和Nscale等新兴玩家 [7] - 尽管部分云服务商正在自研加速器,但英伟达正通过在服务器CPU生态系统中"下重注",试图在下一代AI基础设施竞争中保持其不可撼动的核心地位 [7]
CPU-AI推理用量提升-涨价或是必然
2026-01-22 10:43
行业与公司 * **行业**:人工智能(AI)算力、数据中心、CPU/GPU/NPU等半导体芯片 * **涉及公司**: * **国际**:英伟达 (NVIDIA)、AMD、谷歌、台积电 * **国内**:中科曙光、华为、海光信息、阿里巴巴(平头哥)、龙芯中科、飞腾信息、寒武纪、盛东信息、澜起科技 核心观点与论据 AI推理时代CPU的重要性提升 * Deepseek通过条件记忆和n-gram模块优化模型,并将n-gram嵌入表完全储存在CPU DRAM中,提升数据查询效率,凸显了CPU在推理过程中的协调和调度价值[1] * 在AGI时代,CPU的作用更加关键,核心器件(HBM、DDR、CPU)被重新定义[2] * 算力需求增加和技术迭代推动CPU出货量和价格双增[4] 技术演进与硬件配置趋势 * **英伟达的解决方案**:推出Grace CPU,通过NVLink C2C技术将CPU与GPU间的数据搬运速度提高到**900 Gbps**,扩大GPU显存,并采用超级芯片封装技术(1颗CPU+2颗GPU)提高系统整体效率[1][5] * **国内企业进展**: * 中科曙光发布STELLAR X64超级点,架构由**160个CPU**和**640颗GPU**组成(当前1:4,未来或发展为1:2),采用海光X86架构授权和HASL总线互联协议[1][4][6] * 华为推出384超级点,采用自主研发的海光X86架构授权及HASL总线互联协议[1][6] * 华为在生成式AI领域采用**340,384颗910C NPU**和**192颗鲲鹏CPU**,比例为1:2,使用Scuba网络[3][7] * **未来主流AI超算点配置**:CPU数量(华为192颗、曙光160颗、AMD 18颗、ME 72颗);加速器比例(华为、英伟达为1:2,曙光、AMD暂为1:4);华为因使用灵渠协议,内存共享速度更快[8][9] * **迭代频率**:华为生成式AI迭代频率高,预计到**2026年第一季度**达到Q4、Q7、Q8水平,对CPU和GPU需求量巨大[3][7] * **大模型技术趋势**:对CPU三级缓存及GPU与CPU比例提出更高要求,从原来的**1:4升级到1:2**[12] 数据中心市场高速增长 * 预计到**2030年**,数据中心市场规模将达到**600亿美元**,增长由技术迭代、数据中心升级周期和头部CPU厂商持续更新推动[3][10] * 到**2026年**,服务器CPU出货量有望增加**25%**[11] * 台积电**2025年**总收入达**3.81万亿新台币**,同比增长**31.6%**,先进制程(3纳米和5纳米)营收占比显著提升[10] 国内外市场格局 * **海外**:英伟达、AMD、谷歌等公司积极建设数据中心[11] * **国内**:海光信息、中科曙光、华为、阿里巴巴等加紧布局[11] * **CPU架构格局**:国内相对集中,主要采用ARM架构(华为、阿里平头哥)与x86架构(海光信息代表);阿里平头哥还同时使用开源RISC-V架构[11] 其他重要内容(投资相关) * **推荐公司**: * **CPU领域**:海光信息、龙芯中科、飞腾信息、中科曙光(因大模型技术迭代对缓存和CPU比例要求提升)[12] * **AI芯片**:海光信息、寒武纪[12] * **芯片互联**:中科曙光、盛东信息、澜起科技(因互联需求增加)[12] * **服务器领域**:中科曙光、海光信息[12]
2026年CES定调行业走向:AI 算力需求外溢引发存储“大地震”,供应链短缺恐贯穿全年
智通财经网· 2026-01-12 08:07
行业核心动态:AI需求引发存储供应链紧张 - 人工智能需求激增导致内存和存储严重短缺,可能影响2026年余下时间的行业走势 [1] - 动态随机存取存储器第一季度的合约价格尚未最终确定,但供应商期望实现50%或更高的增长 [1] - 超大规模云服务商吸干了市场所有新增的产能,产能转移及对更高合约价的预期推高了二级市场价格 [1] DRAM市场与主要受益公司 - 美光和闪迪是可能受益于DRAM价格大幅上涨的公司 [2] - 闪迪因已从苹果供应链中移除,对比基数较低,其定价预计将显著优于行业表现,50%的涨幅被视为基本情况 [2] - 其他潜在受益者还包括Pure Storage和慧荣科技 [3] 英伟达的影响 - 英伟达庞大的体量意味着其任何举动都会对半导体行业产生显著影响,可能从内存供应紧张中受益,也可能加剧内存空间压力 [4] - 英伟达的新存储层通过BlueField-4连接,一项粗略计算显示其使AI工作负载需求增加了40%以上 [4] - BlueField-4于2025年10月发布,结合了Grace CPU和ConnectX-9网络产品,旨在提升算力并支持AI工厂 [4] 硬盘驱动器市场 - 西部数据和希捷所在的硬盘驱动器领域需求强劲,供应与订单之间存在巨大缺口 [5] - 这一缺口在全年内可能会进一步扩大,甚至可能持续到2027年 [5] - 价格趋势可能会走高,随着2028年的合同已在谈判中,云服务提供商面临的短缺问题正逐渐显现 [5] 对PC与手机市场的负面影响 - 内存和存储价格上涨对需求产生负面影响,多家PC和手机制造商已经削减了制造预期 [6] - 行业目前预计PC和手机市场将出现低个位数的下降,而此前预期为低个位数的增长 [6] 对英特尔的影响 - 对于以PC为核心的英特尔,任何PC制造量的削减都是重大的担忧点,这会影响到出货量、产能利用率及定价,该板块约占其销售额的60% [7][8] - 内存成本上升是一个警示信号,但公司还有其他影响更大的领域,尤其是其代工业务,18A工艺的成功发布将是迈出的重要积极一步 [7] - 鉴于英特尔也涉及服务器市场,服务器交付周期的任何延长也可能带来负面影响 [8] 对AMD的影响 - 对于AMD,内存价格上涨的影响更为复杂,目前的焦点主要集中在其AI加速器产品组合上 [8] - 如果PC需求因内存价格上涨而恶化,AMD必然面临一定风险,但对服务器的担忧较少,因为AMD在这方面可能会继续获得市场份额,且在云服务提供商需求中占据较高权重 [8] - 在可预见的未来,AMD的股价走势将由该公司预期的AI GPU性能驱动,任何恢复向中国出货的能力都可能带来即时收益 [8]
英伟达 CEO 黄仁勋:Blackwell GPU 已在美国全面投产
搜狐财经· 2025-10-29 08:02
产品与生产进展 - 英伟达最新一代Blackwell GPU已在亚利桑那州全面投产,这是该公司最快的AI芯片 [1] - 首批Blackwell晶圆已与台积电合作在凤凰城的工厂成功产出,基于该架构的系统未来将在美国本土组装 [3] - 在过去四个季度中,已有600万块Blackwell GPU出货 [4] 市场预测与财务数据 - Blackwell系列及下一代Rubin芯片的总销售额有望达到5000亿美元 [4] - 若非美国政府的许可要求,专为中国市场设计的H20芯片在过去两个季度本可带来约105亿美元的销售额 [5] - 公司目前在中国市场的份额为零,处于完全缺席状态 [6] 战略合作与行业布局 - 英伟达将与芬兰诺基亚合作开发新一代电信设备,并向其投资10亿美元,该行业市场规模高达3万亿美元 [4] - 诺基亚将在其基站设备中采用英伟达的Nvidia ARC集成方案,结合了Grace CPU、Blackwell GPU及网络组件 [4] - 合作目标包括推动5G和6G基站芯片自主研发,构建基于美国技术的无线通信网络 [4] 地缘政治与监管影响 - 公司游说美国政府放宽对华芯片出口限制,认为允许中国AI开发者使用美国技术比迫使其自主研发更具战略优势 [5] - 美国政府最终同意审批H20芯片出口许可,但条件是英伟达须将其对华销售额的15%上缴美国财政部 [5] - 公司尚未推出基于最新Blackwell架构的新一代中国市场专用芯片 [6] 公司战略定位 - 英伟达意在确立自身为美国国家技术基础设施和"美国技术栈"的核心支柱 [3][5] - 公司战略意图包括向政策制定者传递信息:对其出口施加限制将损害美国自身的科技领导地位 [3] - 公司定位为支撑美国AI发展基础设施的建设者,以确保美国在全球创新中的领先地位 [5]
“ 红蓝厂”主导的服务器CPU迎来新势力! NextSilicon携RISC-V架构挑战英特尔与AMD
智通财经· 2025-10-23 15:25
公司产品与技术 - 公司正在开发一款基于开源RISC-V架构的中央处理器(CPU),代号为“Arbel”,旨在冲击由AMD和英特尔主导的数据中心服务器CPU市场,并与英伟达的HPC算力集群竞争 [1] - 公司的旗舰芯片产品是“Maverick-2”数据流加速器,其本质是一款非冯·诺依曼范式的“数据流/可重构”加速器,主计算阵列内嵌了多颗RISC-V内核以处理串行代码 [2][3] - Maverick-2加速器与即将量产的RISC-V架构CPU(Arbel)将组成“主机+加速器”的超算节点,公司声称该组合能在无需彻底重写软件代码的情况下,以更快速度和更低功耗执行英伟达GPU的同类计算工作,并带来优于英特尔与AMD组合的性价比与能效比 [4] - 公司计划推出的“Arbel” CPU是面向HPC场景的服务器CPU,目前仍处于测试芯片阶段,旨在与Maverick-2/3加速器紧耦合,服务超算中心与科学计算等数据中心负载 [4][5] 市场定位与竞争格局 - 公司开发的RISC-V架构CPU产品线,目标是与AMD和英特尔x86架构服务器CPU产品线、以及英伟达基于ARM架构的Grace CPU展开竞争 [1] - 公司试图利用英伟达将注意力转向人工智能等低精度大型计算任务的机会,切入由英伟达主导的精密科学计算领域(如核武器建模、超音速导弹)[2] - 公司推出的“主机+加速器”超算节点组合,被视为用于挑战当前主流的“x86架构+GPU”体系范式 [5] 行业技术趋势 - RISC-V作为一种完全开放的指令集架构,正被英伟达和博通等芯片巨头越来越大规模地采用,在芯片设计领域热度攀升,与ARM和x86架构形成鼎足之势 [2][5] - RISC-V架构由于其开放性和定制潜力,便于按研究室的庞大HPC需求扩展,开始被用于数据中心领域,未来可能蚕食x86与ARM架构的市场份额 [5][6] - 相比于传统的“x86+GPU”指令流组合,公司采用的RISC-V架构HPC优先与紧耦合架构能够减少指令与数据搬运开销,从而提升计算平台的能效与吞吐 [6] 公司进展与第三方评价 - 公司的新款CPU类型开源架构计算芯片正在接受美国国家实验室(桑迪亚国家实验室)的全面评估,该实验室三年来一直在评估由公司芯片构建的原型计算系统 [1][4] - 桑迪亚国家实验室高级科学家表示,公司芯片产品的性能结果令人印象深刻,显示出在不需要大量软件代码修改的情况下,大幅提升实验室复杂计算能力的潜力 [4] - 公司已筹集大约3亿美元融资,其Maverick-2及更先进的加速系列芯片已进入实际的量产阶段 [2][4]
“?红蓝厂”主导的服务器CPU迎来新势力! NextSilicon携RISC-V架构挑战英特尔与AMD
智通财经· 2025-10-23 15:22
公司概况与产品定位 - 总部位于以色列的芯片初创公司NextSilicon已筹集约3亿美元融资 [2] - 公司正开发一款基于开源RISC-V架构的中央处理器,旨在挑战由AMD和英特尔主导的数据中心服务器CPU市场 [1] - 公司旗舰芯片产品为"Maverick-2"数据流加速器,旨在加速精密科学计算任务,如核武器建模和超音速导弹 [2] - 公司计划推出的RISC-V架构服务器CPU代号为"Arbel",目前仍处于测试芯片阶段,面向高性能计算场景 [5] 技术架构与竞争优势 - NextSilicon采用名为RISC-V的开源架构技术,该技术正被英伟达和博通等芯片巨头大规模采用 [2] - Maverick-2的本质是一款"数据流/可重构"加速器,其计算单元以运行时可重构的图/数据流方式工作,不同于传统CPU/GPU指令流架构 [3] - 芯片内嵌了多颗自研RISC-V内核,用于处理难以并行化但必须高速执行的串行代码 [3] - 公司声称其技术组合能够在无需彻底重写软件代码的情况下,以更快速度和更低功耗执行英伟达GPU的部分同类计算工作 [4] - 相比于x86+GPU的主流范式,NextSilicon的"HPC优先与紧耦合架构"能够减少指令与数据搬运开销,从而提升计算平台能效与吞吐 [6] 市场动态与行业影响 - 服务器CPU市场目前由英特尔和AMD全面主导 [2] - RISC-V作为一种完全开放的指令集架构,正加速渗透服务器领域,与x86和ARM架构形成鼎足之势 [5][6] - 由于英伟达将注意力转向人工智能等低精度大型计算任务,为NextSilicon等初创企业创造了市场机会 [2] - NextSilicon的"Arbel" CPU与Maverick-2加速器旨在组成"主机+加速器"的超算集群,以挑战x86架构+GPU体系的主流范式 [5] 客户验证与发展进展 - NextSilicon的新款CPU正在接受美国桑迪亚国家实验室的全面评估 [1] - 桑迪亚国家实验室已评估由NextSilicon芯片构建的原型计算系统长达三年 [4] - 该实验室高级科学家表示,NextSilicon芯片的"性能结果令人印象深刻",显示出在不需大量软件代码修改的情况下大幅提升复杂计算能力的潜力 [4] - Maverick-2及更先进的加速系列芯片已进入实际量产阶段,而服务器CPU"Arbel"计划不久后大规模量产 [4][5]
“红蓝厂”主导的服务器CPU迎来新势力! NextSilicon携RISC-V架构挑战英特尔与AMD
智通财经网· 2025-10-23 15:15
公司核心动态 - 芯片初创公司NextSilicon正开发一款基于开源RISC-V架构的中央处理器,旨在向AMD和英特尔主导的数据中心服务器CPU市场发起冲击,并与英伟达的HPC算力集群竞争[1] - 公司已筹集大约3亿美元融资,其旗舰芯片产品"Maverick-2"数据流加速器旨在加速精密科学计算任务,如核武器建模和超音速导弹[2] - Maverick-2加速器芯片及其更先进的加速系列已进入量产阶段,公司声称其能在无需彻底重写软件代码的情况下,以更快速度和更低功耗执行英伟达GPU的部分同类计算工作[4] - 公司即将推出的RISC-V架构服务器CPU代号为"Arbel",目前仍处于测试芯片阶段,计划与Maverick-2/3加速器紧耦合,服务超算中心和科学计算等数据中心负载[5][6] 产品技术特点 - Maverick-2是一款"数据流/可重构"加速器,采用非冯·诺依曼范式的智能计算架构,其主计算阵列内嵌了多颗RISC-V内核,用于处理难以并行化但需高速执行的串行代码[3] - Maverick-2的计算单元以运行时可重构的图/数据流方式工作,不同于传统的CPU/GPU指令流架构[3] - 由Maverick-2加速器与Arbel CPU组成的"主机+加速器"超算节点,据称能带来强于英特尔与AMD同类数据中心组合的性价比与能效比[4] - Arbel CPU采用HPC优先与紧耦合架构,能够减少传统CPU/GPU架构中的指令与数据搬运开销,从而大幅提升计算平台的能效与吞吐[7] 市场与行业影响 - NextSilicon的产品将对长期由英特尔和AMDx86架构主导的服务器CPU市场,以及英伟达基于ARM架构开发的Grace CPU构成新的竞争[1][2] - RISC-V作为一种完全开放的指令集架构,正加速渗透服务器领域,与ARM和x86架构形成鼎足之势,未来可能蚕食两者在各自擅长领域的市场份额[6] - RISC-V的开源特性和定制潜力使其便于按研究室的庞大HPC需求进行扩展[7] - 英伟达等芯片巨头正越来越大规模地采用RISC-V架构[2] 第三方评估与认可 - 美国桑迪亚国家实验室三年来一直在评估由NextSilicon芯片构建的原型计算系统[4] - 桑迪亚国家实验室高级科学家表示,NextSilicon芯片产品的性能结果令人印象深刻,显示出在不需要大量软件代码修改的情况下,大幅提升实验室复杂计算能力的潜力[4]
三星内存,重大升级
半导体芯闻· 2025-10-15 18:47
HBM4E技术规划 - 三星电子计划于2027年量产的第七代高带宽内存HBM4E目标带宽超过3TB/s,最高可达3.25TB/s [1] - HBM4E的每引脚速度目标提升至13Gbps以上,带宽是当前第五代HBM3E的2.5倍 [1] - HBM4E的能效目标是当前HBM3E(每比特3.9皮焦)的两倍以上 [1] HBM4E研发进展与竞争态势 - 三星电子在2025年国际固态电路会议上最初公布的HBM4E目标带宽为2.5TB/s(每引脚10Gbps),后于2025年开放计算项目全球峰会将目标提升25%至3.25TB/s [2][1] - 三星电子是三家内存制造商中首家提出超过3TB/s带宽目标的企业 [3] - 公司从HBM4研发初期就瞄准了比其他公司更高的带宽,旨在实现战略逆转 [3] HBM4技术规格与客户需求 - 根据JEDEC规范,HBM4的每引脚带宽为8Gbps,总带宽为2TB/s [2] - 英伟达要求内存制造商将HBM4的每引脚速度提升至10Gbps以上,以用于其下一代AI加速器"Vera Rubin" [2] - 三星电子将HBM4的引脚速度提升至11Gbps,SK海力士也实现了相应速度,美光已交付带宽为11Gbps的HBM4样品 [2] LPDDR6产品规格 - 三星电子介绍了下一代移动DRAM LPDDR6的规格,计划实现每引脚10.7Gbps的速度,总带宽达114.1GB/s [3] - LPDDR6的能效较现有LPDDR5X提升20% [3] 代工业务进展 - 三星电子暗示计划于今年年底量产的2纳米工艺(SF2)已完成进度 [4] - 公司与AI芯片初创企业Rebellions合作,其REBEL-Quad NPU将采用三星4纳米工艺生产,新增的CPU将采用2纳米工艺生产 [4] - 采用2纳米工艺制造的REBEL-CPU目标运行频率为3.5-4.0GHz,有望超过英伟达采用台积电4纳米工艺制造的"Grace" CPU的最高速度3.44GHz [4]
Billionaire Philippe Laffont Is Selling AMD and Buying This AI Chipmaker He Thinks Can Quadruple in 5 Years (Hint: Not Nvidia)
The Motley Fool· 2025-10-14 09:45
文章核心观点 - 对冲基金Coatue Management的基金经理Philippe Laffont大幅减持GPU制造商AMD和Nvidia的头寸,同时新建仓半导体公司Arm Holdings,认为其到2030年有巨大增长潜力 [2][4][8] - Arm Holdings凭借其节能芯片架构,在数据中心市场获得强劲增长动力,并展现出定价能力,但其当前估值较高 [9][11][12] Coatue Management的投资组合调整 - Coatue Management的公开股票投资组合在截至6月的三年期内表现超越标普500指数约95个百分点 [2] - 自2023年中达到峰值以来,该基金已减持GPU制造商AMD 89%的头寸 [3] - 自2023年初以来,该基金将其在Nvidia的持股削减了约77%,但在上一季度又增持了部分Nvidia股份,同时将其剩余的AMD头寸再削减53% [4] - 自6月底以来,AMD股价表现优于Nvidia,主要得益于与OpenAI达成的一项多年期购买高达6吉瓦AMD GPU的交易 [5] Arm Holdings的增长潜力与市场定位 - Arm Holdings的市值预计将从当前的约1790亿美元增长至2030年的7870亿美元,增幅达340% [8] - 公司不自行设计芯片,而是提供基础芯片架构供其他芯片设计商使用,其节能特性在智能手机市场取得成功,并正寻求在数据中心市场获取份额 [9] - 使用其数据中心芯片的企业客户数量达到7万家,自2021年以来增长了14倍 [10] - Nvidia使用Arm的知识产权为其Hopper和Blackwell服务器机架构建了Grace CPU,这展示了Arm为其他GPU制造商和超大规模供应商带来的价值 [10] - 第一季度授权费收入同比增长25%,这得益于其v9架构和其他授权IP的更高费率 [11] 行业动态与竞争格局 - AMD与OpenAI的交易是对其即将推出的MI450 GPU平台投下的信任票,AMD管理层称该平台在训练和推理方面的性能将超越Nvidia的Rubin平台 [6] - 数据中心市场的能源效率日益受到关注,能源供应可能成为扩展数据中心计算能力的限制因素,这为Arm的节能架构创造了机会 [9] - Nvidia与Intel近期的一项交易可能使GPU领导者的焦点转向Intel的x86架构 [10]