文章核心观点 - 以智能体(Agentic AI)和强化学习为代表的下一代AI应用范式,正引发数据中心架构的根本性变革,导致对中央处理器(CPU)的需求激增,并可能重塑CPU市场的竞争格局[3][4][6][7][10][11] AI应用范式转变驱动CPU需求 - 早期AI应用(如ChatGPT)以问答为主,计算瓶颈在图形处理器(GPU),CPU仅负责数据调度,一个CPU可服务8-12个GPU[4] - 智能体AI需要执行复杂任务(如规划旅行),涉及调用API、查询数据库、协调任务等,这些“跑腿”工作主要由CPU承担[5] - 在智能体任务中,CPU侧处理时间可占整个流程的50%到90%,瓶颈从GPU计算能力转向CPU协调能力[6] - 强化学习训练模型需要CPU构建“环境”来执行和评估模型生成的动作(如编译代码、物理模拟),进一步推高CPU需求[10] 数据中心硬件配置重构 - 数据中心为支持智能体应用,CPU核心配置需求大幅增长,例如从3000万个核心增至1.2亿个,增长4倍[7] - 功率配比发生变化:微软为OpenAI建设的“Fairwater”数据中心中,GPU与CPU的功率配比为295MW:48MW,即每6瓦GPU功率需1瓦CPU功率支撑,远高于传统AI训练场景的20:1或更高比例[7] - 英伟达最新的Rubin架构中,CPU与GPU的配比从1:12变为1:2,甚至出现2:1的配置,预示未来AI服务器中CPU数量可能超过GPU[7] CPU技术路线与产品分化 - CPU需求增长不仅体现在数量,也体现在类型分化[8] - 管家型CPU:专为服务GPU设计,要求高性能、大缓存、高带宽,以确保GPU数据供给,通常1个CPU配2-4个GPU,代表产品有英伟达Vera CPU和AMD Venice[9] - 干活型CPU:专为运行智能体协调任务设计,要求核心数多、功耗低、吞吐量大,对单核性能要求不高,代表产品有AWS Graviton和微软Cobalt[9] - 服务于用户的智能体任务(后者)需求增长快于用于模型训练的前者[9] 市场竞争格局变化 - AMD:势头迅猛,其EPYC处理器在数据中心市场占优,并拥有完整GPU产品线(MI300、MI450),可进行CPU、GPU、网络芯片的全栈优化,计划推出整合的Helios机架系统[11] - Intel:拥有企业客户基础,AI数据中心需求爆发为其提供机会[11] - Arm:推出针对智能体优化的AGI处理器,宣称能效比是传统CPU的两倍,已获Meta测试,并与联想合作[11] - Arm面临的挑战:1) 从架构授权转向自研芯片量产,面临良率、供应链等挑战;2) 与使用其架构的客户(如Ampere、AWS、微软)形成竞争;3) 面临AMD和Intel推出功耗优化版CPU的对标竞争,短期内(2-3年)难撼动市场格局[12] - 国内市场:当前国内AI服务器(8卡机)主要采用AMD/Intel的CPU,此轮CPU紧缺为国产CPU提供了发展机会[12]
CPU逻辑回归?