文章核心观点 - 行业逻辑正在发生转变:AI发展的瓶颈从以GPU为核心的算力,逐渐转向系统级的执行与调度能力,长期被忽视的CPU正成为决定AI系统能否高效运行的关键变量 [6] - CPU在智能体(Agentic AI)时代的工作负载发生根本性变化,承担了大部分任务编排、工具调用和数据处理工作,其性能、内存带宽及与GPU的协同效率成为系统性能的新瓶颈 [17][18][19] - 主要芯片厂商(英特尔、AMD、英伟达)正采取不同的策略应对这一变化,竞争焦点从单纯的CPU参数比拼升级为生态系统和供应链稳定性的博弈 [16][20][21][22] - 产业投资信号明确显示,AI基础设施的扩张重点正从堆叠GPU转向同步构建庞大的“CPU调度基础设施”,以支撑智能体工作负载 [25] 根据相关目录分别进行总结 01 一场"悄无声息"的供应危机 - 服务器CPU价格与交付周期异常:2025年第四季度,服务器CPU的平均售价上涨了约30%,这种涨幅在成熟市场非常罕见 [11] - CPU供应短缺加剧:AMD的交付周期从原来的八周延长至十周以上,部分型号甚至面临长达六个月的延迟 [11] - 短缺根源在于产能挤兑:由于台积电3nm产线紧张,原本分配给CPU的晶圆产能被利润更高的GPU订单挤占,导致出现“有GPU但无足够顶级CPU带动”的讽刺局面 [11] - 大客户深度绑定凸显供应链价值:埃隆·马斯克委托英特尔为其“Terafab”项目设计制造定制芯片,这体现了英特尔在x86生态系统和制造能力方面的筹码,CPU市场竞争升级为生态系统和供应链稳定性的博弈 [12][16] 02 为什么CPU会成为"短板"? - 智能体工作负载的根本性转变:在智能体模式下,CPU需要负责多步推理、API调用、数据库读写、复杂业务流编排及结果整合等任务,而GPU主要负责token生成(“思考”) [18] - CPU延迟占比显著:学术研究表明,在智能体工作负载中,CPU端工具处理所占用的时间占总延迟的50%至90.6%,CPU已成为主要性能瓶颈 [18] - 大模型上下文窗口扩展带来新压力:2025年主流模型开始支持100万token以上,其KV缓存(约200GB)远超单块H100 GPU的80GB显存,解决方案之一是将部分KV缓存卸载至CPU内存,这对CPU的内存容量、带宽及与GPU的互连速度提出了更高要求 [19] - 新时代CPU需求变化:适合智能体时代的CPU更需要低延迟、一致的内存访问能力以及强大的系统级协同能力,而非单一的核心规模扩张 [19] 03 厂商们都在做什么?有人抢地盘,有人改设计 - 英特尔:双线策略巩固地位 - 市场地位:2025年第四季度在服务器CPU市场占有60%份额 [20] - 策略一:与谷歌等超大规模客户深度绑定,部署至强处理器 [20] - 策略二:与SambaNova合作,推出基于至强处理器与自研RDU加速器的组合方案,主打“不用GPU也能跑智能体推理” [20] - 未来关键:至强6 Granite Rapids和18A工艺路线图将是其翻盘关键 [20] - AMD:需求爆发的显著受益者 - 财务表现:2025年第四季度,AMD数据中心收入达54亿美元,同比增长39% [21] - 产品驱动:第五代EPYC Turin处理器占服务器CPU收入一半以上,运行EPYC的云实例部署同比增长超50% [21] - 市场份额:服务器CPU收入份额首次突破40% [21] - 增长归因:CEO苏姿丰将增长直接归因于智能体发展将任务“推回”到传统CPU上 [21] - 大额订单:2026年2月宣布与Meta的潜在交易,价值超过1000亿美元,供应MI450 GPU和Venice EPYC CPU [21] - 潜在短板:在高速CPU-GPU互连(如NVLink C2C)等系统级协同方面仍有提升空间 [21] - 英伟达:重塑CPU角色,追求极致协同 - 设计哲学:将CPU定位为服务于GPU的“调度中枢”,而非通用计算主力,核心数量(Grace CPU为72核)少于传统服务器CPU(通常128核),旨在避免CPU成为GPU的等待瓶颈 [22] - 技术优势:通过NVLink C2C互连,将CPU与GPU间带宽提升至约1.8TB/s,远高于传统PCIe,并实现CPU直接访问GPU内存,简化KV缓存管理 [22] - 市场进展:已将Grace CPU作为独立产品销售给CoreWeave;与Meta的交易是其第一次大规模“纯Grace部署”(CPU在没有配对GPU的情况下独立部署) [22] - 行业分析师观点 - 系统效率至关重要:CPU处理能力必须匹配加速器迭代速度,数据通道即使出现百分之一的延迟,也会大幅影响整个AI集群的经济效益 [23] - CPU地位愈发核心:在智能体驱动的AI架构中,调用API和业务应用程序的任务最适合由CPU完成 [23][24] - 混合架构成为趋势:关于GPU和CPU谁更适合处理推理尚无定论,但谷歌等公司需要采用混合处理器架构,因此与英特尔合作是合理选择 [24] 04 结语:智能体时代,算力天平回摆 - 产业规划信号明确:在亚马逊AWS与OpenAI高达380亿美元的合作协议中,明确提到了“数千万个CPU”的扩展规模,这改变了以往只聚焦“数十万个GPU”的行业关注点 [25] - 市场规模预测增长:美国银行预测,到2030年,全球CPU市场规模有望从目前的270亿美元翻倍至600亿美元,其中几乎全部新增份额将由AI驱动 [25] - 基础设施扩张新形态:行业正在见证一种新基础设施的扩张——大厂同步扩张一整层“CPU调度基础设施”,专门为AI智能体提供运行支撑 [25] - 竞争制胜点前移:当算力不再稀缺,谁能最先解决系统级的“瓶颈”(如CPU与系统的协同效率),谁就能在AI竞赛中占据优势,英特尔与谷歌的联手、马斯克对定制芯片的投入都印证了这一点 [25]
别卷GPU了,CPU才是AI当下核心瓶颈