CPU何以站上“算力C位”?
财联社·2026-02-01 10:48

核心观点 - AI行业正从纯对话模型步入由智能体驱动的强化学习时代,CPU正演变为算力“木桶效应”下的新短板,其重要性显著提升[4] - 英伟达等产业巨头通过投资、产品架构调整及开放支持等方式,在系统层面确认了CPU在长上下文与高并发Agent场景中的核心地位[4] - 服务器CPU需求激增导致供需极端失衡,英特尔与AMD的2026年产能已基本售罄,并计划提价10-15%,行业进入高景气周期[5] - 服务器CPU正进入存量升级、国产替代与模型迭代三重共振周期,预计2026年出货量有望增长25%,或将迎来价值重估机会[8] AI算力架构演变:从GPU主导到CPU瓶颈凸显 - 在完整的Agent执行链路中,工具处理环节在CPU上消耗的时间占端到端延迟的比例最高可达90.6%[4] - 高并发场景下,CPU端到端延迟从2.9秒跃升至6.3秒以上,系统吞吐受限的核心问题从GPU计算能力转向CPU的核心数并发调度[4] - 英伟达计划在下一代Rubin架构中大幅提升CPU核心数,并开放NVL72机柜对x86 CPU的支持,以应对ARM CPU瓶颈[4] - 在长上下文与高并发Agent场景中,大内存CPU是承载海量KV Cache的最优容器[4] CPU需求激增的驱动因素 - Agent对CPU需求提升主要来自三方面:应用调度压力、高并发工具调用成为瓶颈,以及沙箱隔离抬升刚性开销[6] - Agent时代AI由“纯对话”转向“执行任务”,产生大量if/else判断等“分支类任务”,CPU的微架构相比GPU更能适应此类任务,避免GPU算力利用率急剧下降[6] - Agent计算流程演化为“感知-规划-工具调用-再推理”的闭环,工具调用、任务调度、信息检索等关键环节均依赖CPU完成,随着Agent渗透率与工具调用密度提升,CPU作为中间调度枢纽的占用线性放大[7] - 长上下文推理会快速耗尽GPU HBM容量,业界采用KV Cache Offload技术将数据迁移至CPU内存,CPU搭配大容量DDR5/LPDDR5承载KV Cache与部分参数成为主流架构选择[7] 产业动态与供应链影响 - 英特尔与AMD在2026全年的服务器CPU产能已基本售罄,主要因超大规模云服务商“扫货”[5] - 为应对供需极端失衡,英特尔与AMD均计划将服务器CPU价格上调10-15%[5] - 英特尔紧急将产能转向服务器端,一度导致消费电子端交付受阻[5] - 英特尔CEO在2025年第四季度财报电话会上表示,对未能完全满足市场需求感到遗憾[5] 投资视角与市场展望 - 海外CPU巨头在国内的合作商将从CPU涨价行情中直接受益[7] - 国内AI全产业链自主可控不断推进,硬件端与软件端的生态适配正同步跟进,生态架构升级将对各个环节提供性能和产量的双重要求[7] - 超大规模数据中心已进入“升级周期”,CPU架构有较大替换需求[8] - 服务器CPU是AI算力与数据中心升级的核心受益环节,正进入存量升级+国产替代+模型迭代三重共振周期[8] - 预计2026年服务器CPU出货量有望增长25%[8]

CPU何以站上“算力C位”? - Reportify