Workflow
AI Agent
icon
搜索文档
巨头扎堆涌入,漫剧迎来“黄金窗口期”
摩尔投研精选· 2026-01-26 18:35
ETF流出对行情影响分析 - 近期宽基ETF出现明显资金流出,近2周累计流出约6000亿元[1] - 此次ETF大幅流出的核心导火索被认为是成交额的异常放量,单日成交额最高水平曾逼近4万亿元[1] - 若无ETF资金流出对冲,成交量的无序放大可能吸引大量场外投机资金入场,形成类似2007年及2015年的短期脉冲式行情,并在放量后终结[1] - 当前ETF资金大幅流出并不必然意味着行情终结,成交额回归平稳后,市场可能转向类似2020-2021年的可持续慢牛行情[1] - 股市波动率降低后,更契合追求“稳健收益”的银行理财资金和保险资金的偏好[1] 漫剧行业迎来黄金窗口期 - 短剧市场规模已近千亿元,验证了碎片化娱乐的商业潜力,而漫剧(动态漫)正借助AI技术红利成为新的增长极[2] - 2025年上半年,抖音端漫剧日均GMV突破千万元,同比增长1532%,投流日耗突破400万元,同比增长568%,标志着赛道商业化变现闭环已跑通[2] - 2026年被预计为漫剧发展的“黄金窗口期”,其市场规模有望突破220亿元[2] - 行业增长逻辑在于“供需共振”:需求端,用户规模与付费意愿呈井喷态势,2025年8月抖音端付费自然流已超1000万元/天;供给端,AI Agent实现了从文本到成片的端到端自动化,解决了产能瓶颈[2] - 行业正处于从“概念验证”迈向“规模化业绩释放”的关键节点,多模态技术推动了视觉表现力的跨越式提升[2] - 长期来看,基于“文本-3D时空”的动态漫Agent有望超越内容工具范畴,向游戏开发与建筑设计领域外溢,演进为“生成式虚拟世界基建”平台[2]
AI的Memory时刻5:AINAND供需紧张,涨价仍有弹性
广发证券· 2026-01-26 17:50
行业投资评级 * 报告标题明确显示对“AI NAND”行业的投资评级为“供需紧张,涨价仍有弹性”,这反映了对行业基本面向好的积极判断 [1] 报告核心观点 * **核心驱动因素**:AI Agent等应用通过检索增强生成(RAG)技术,需要频繁存取庞大的矢量数据库,显著推升对高IOPS企业级SSD的需求,AI服务器正成为NAND需求增速最大的下游应用 [3] * **需求侧量化**:根据TrendForce数据,预计2026年NAND需求增速为21% [3]。英伟达AI推理上下文存储平台推动单GPU对应的eSSD容量显著增长,测算显示H100需求为4TB,B100/200为8TB,乐观情况下Rubin可达24TB [3]。若VR200 GPU出货量达1400万颗,对应NAND容量需求约336EB [3][24] * **供给侧约束**:海外原厂资本支出高度集中于HBM和先进制程,对NAND投入审慎。NAND Flash资本支出预计从2025年的211亿美元小幅增长至2026年的222亿美元,年增仅约5% [3]。三星、SK海力士均优先保障HBM产能并缩减NAND投资,美光在NAND领域投资也维持在较低水平 [3]。同时,QLC产线改造导致良率阶段性偏低,进一步损耗有效产能,加剧供需紧张 [3] * **价格趋势判断**:预计NAND Flash合约价将迎来全面显著上行,2026年第一季度涨幅或达55%-60%,并有望延续至年底;全年合约价预计上涨105%-110%,带动2026年NAND产业产值同比增速提升至约112% [3][28] * **产业价值重估**:AI记忆的价值正从“费用项”转变为“资产项”,相关上游基础设施的价值量和重要性将不断提升 [3][30] 根据相关目录分别总结 一、单 GPU 对应的 NAND 存储容量不断提升 * AI服务器部署加快驱动NAND需求,单GPU搭载的SSD容量随代际升级而大幅提升,从H100的4TB增至B100/200的8TB,乐观预测下Rubin平台可达24TB [3][11][22] * 根据敏感性测算,在不同GPU代际与出货量假设下,若VR200出货量达1400万颗,将对应约336EB的NAND容量需求 [3][24] 二、新增产能释放节奏偏慢,短期难以匹配需求增长 * 主要海外原厂(三星、SK海力士、美光)的新建晶圆厂产能规划优先满足HBM和先进DRAM的生产需求,对NAND的资本支出增长有限且投入审慎 [3][25][26] * 产能转移与升级过程中的损耗(如QLC产线改造良率问题)进一步限制了NAND的有效供给,加剧了供需紧张格局 [3] 三、投资建议 * 报告认为当前处于“AI的Memory时刻”,AI记忆作为扩展模型能力边界的关键底层能力,将促进AI Agent等应用落地 [3][30] * 建议关注从AI记忆价值重估中核心受益的产业链标的 [3][30] * 报告列出了包括**澜起科技、聚辰股份、兆易创新、中微公司、拓荆科技、北方华创**在内的多家公司,并均给予“买入”评级,同时列出了各自的盈利预测与估值指标 [4]
商汤官宣旗下AI Agent“咔皮记账”免费 未来将推“AI Pro”模式
凤凰网· 2026-01-26 16:16
公司战略与产品调整 - 商汤科技旗下AI Agent应用“咔皮记账”宣布其记账核心功能将永久免费开放[1] - 包括自动记账、共享账本、预算规划、多账户管理等在内的30项原需付费功能现已全部转为免费[1] - 用户可无门槛使用该应用的记账功能[1] 产品功能与技术基础 - 该应用基于商汤“日日新”大模型的多模态理解能力[1] - 支持通过拍摄小票、语音输入或轻敲手机等方式自动识别消费信息并完成记账分类[1] - 实现从手动录入到自然交互的转变[1] 未来发展规划 - 官方透露未来将推出“AI Pro”模式[1] - 将在财务管理基础上进一步为用户提供个性化生活规划与建议[1]
Token洪流的转向:当AI Agent成为Token消耗的主宰,什么样的推理服务基础设施才是刚需
AI前线· 2026-01-26 15:19
文章核心观点 - AI Agent正成为大模型Token消耗的主体,推动推理服务基础设施发生从“面向人类”到“面向智能体”的范式跃迁,其负载特征、请求模式和成本考量发生根本性变化 [2] - 为应对AI Agent时代的新需求,由多家产学研机构联合打造的“AI Serving Stack”开源项目,通过模块化、标准化的架构设计,旨在填补生产级LLM推理编排的空白,解决推理基础设施的“最后一公里”问题 [16][17] AI Agent时代的范式转变 - **从“人机对话”到“Agent协作”**:AI Agent的请求是持续、高频、结构化的,可能触发多个子Agent形成复杂计算图,要求基础设施能处理毫秒级的级联调用 [4] - **从“单次响应”到“状态化会话”**:AI Agent执行持续任务,会话包含长达数万轮的上下文,导致KVCache需要从GPU临时缓存转变为需持久化、可迁移的“数字记忆体” [5] - **从“规模经济”到“效率经济”**:当Token消耗增长10倍、100倍时,成本成为核心考量,推理基础设施需实现“超卖”与“混部”,并像“数字电网”一样动态调度算力以应对潮汐效应 [6][7] AI Agent对推理基础设施的核心需求 - **需求一:拓扑感知的角色编排**:需将推理服务拆解为Prefill、Decode、KVCache等独立角色,实现独立调度与弹性伸缩,以解决资源错配问题 [9] - **需求二:KVCache为中心的架构**:需实现跨实例、跨节点甚至跨集群的KVCache共享与透明迁移,以支持Agent的长上下文特性并避免重新计算 [10] - **需求三:智能差异化调度**:调度器需理解请求语义,实现KVCache感知、优先级队列等差异化调度,以满足不同Agent任务对SLO(如低TTFT、高吞吐量)的迥异需求 [11] - **需求四:生产级弹性效率**:需将弹性从“分钟级”压缩到“秒级”,并配合反碎片化、潮汐混部等手段,将GPU利用率从30%的低位提升至70%以上 [12] - **需求五:全链路可观测与自优化**:需提供从Token生成到工具调用的全链路追踪,并能基于历史数据自动优化配置,使决策从“人工调参”转向“数据驱动” [13] AI Serving Stack的架构与核心能力 - **模块化设计**:采用模块化设计,将部署管理、智能路由、弹性伸缩、深度可观测等能力解耦为独立组件,用户可按需灵活组装 [16] - **RoleBasedGroup (RBG)**:作为LLM推理的Kubernetes标准API,将推理服务定义为“拓扑化、有状态、可协同的角色有机体”,实现从离散Deployment到拓扑有机体的范式跃迁 [18][19] - **RBG的SCOPE五大核心能力**:基于RBG实现角色原子化、协同策略化、管理统一化、配置智能化,新模型运维耗时从天级缩短至分钟级,支撑PD分离架构实现资源成本节省超50% [19][21] - **智能调度网关 (SMG)**:专为LLM负载设计,实现推理负载感知的差异化调度,将RBG的编排能力转化为业务级性能优势 [22] AI Serving Stack的性能突破与效益 - **以KVCache为中心的PD分离架构**:深度融合Mooncake项目,通过计算与存储解耦及KVCache池化共享,在长文本阅读等多轮对话场景中,使推理吞吐量提升6倍,响应时间降低69.1%,KVCache命中率最高达90% [24][27] - **KVCache感知调度**:基准测试显示,全局近似模式下可实现TTFT降低50%以上、吞吐量翻番,分离感知调度下实现TTFT降低20%以上 [26] - **资源效率与成本节约**:动态P/D比例调整使GPU利用率稳定在65%-75%,配合潮汐混部与反碎片化优化,用户GPU成本减少30%-40%,年度节约近千万元 [29] - **工程效率提升**:一键部署时间<5分钟,发布失败率从23%降至5%,MTTR从数十分钟级降至2分钟内,服务升级中断时间从15分钟缩短至10秒 [29] AI Serving Stack的生态与行业影响 - **全栈开源与多框架兼容**:秉持100%开源架构,支持SGLang、vLLM、TensorRT-LLM等国内外主流推理引擎,并已完成多个国产算力适配,避免商业锁定 [30] - **生态整合效益**:与vLLM/SGLang等主流框架深度适配,TPOT下降20%,推理成本低至0.2美元/每百万Token [31] - **产学研协同典范**:由清华大学、南京大学、阿里云、小红书等多家机构联合打造与维护,采用开放治理模式,快速迭代(每两个月发布一个Minor版本),有效弥合AI基础设施的“配置鸿沟” [32][35] - **行业认可**:获评“2025年度AI工程与部署卓越奖”,标志着开源协作模式在生产级AI基础设施领域的潜力 [32]
广发证券:AI agent对CPU需求增加 建议关注产业链核心受益标的
智通财经网· 2026-01-26 11:53
AI记忆技术驱动基础设施价值提升 - AI记忆正从“费用项”转变为“资产项”,成为支撑AI应用连续性与个性化的底层能力,有望促进AIAgent等应用加速落地,相关上游基础设施价值量与重要性将不断提升 [1] AI Agent发展推升CPU需求 - AI Agent时代,单个用户可同时调用多类Agent驱动服务器端应用,整体调用频次与覆盖面显著高于人类使用,带来更多系统请求、数据搬运与控制流开销,推高CPU负载 [1] - AI Agent的计算流程演化为“感知-规划-工具调用-再推理”的闭环,工具调用、任务调度、信息检索等关键环节均依赖CPU完成,随着Agent渗透率与工具调用密度提升,CPU作为中间调度枢纽的占用线性放大 [1] - 为降低误操作风险,Agent运行时普遍采用沙箱/虚拟化隔离,带来额外进程与内核开销,并提升IO带宽与本地SSD缓存需求,进一步推高CPU/内存/存储配置 [1] AI集群中CPU配比持续提升 - 根据semianalysis报告,目前每个GPU兆瓦(MW)对应的CPU配比低于10%,预计到2026年第二季度,该比例将上升至15% [2] - 在300MW GPU建筑功率下,假设CPU配比率分别为16%、25%,则单GPU对应的额外通用服务器CPU数量分别为0.29、0.45;单GPU对应的总CPU数量分别为0.79、0.95 [2] - 假设全球B200、ASIC出货量分别为800万颗、700万颗,则总AI集群X86 CPU的数量分别为610万颗、855万颗,AI CPU增量需求分别为25%、36% [2] 内存与接口芯片市场空间扩大 - AI服务器为满足更高容量与带宽需求,内存配置趋向全插(2DPC),而通用服务器多以半插(1DPC)为主,因此DIMM条需求增长可表述为:DIMM条增长=CPU量增长×2 [3] - X86-CPU配置的内存形态有望从传统RDIMM逐步向MRDIMM方案演进,需引入更复杂的接口芯片,推动配套芯片平均销售价格(ASP)提升 [3] - 内存插满率提升叠加MRDIMM渗透,共同打开内存条与接口芯片的市场空间 [3]
电子掘金-从供需关系看CPU-光纤行业涨价趋势
2026-01-26 10:49
行业与公司 * 纪要涉及**光纤光缆行业**与**CPU(中央处理器)行业**[1] * 光纤光缆行业核心公司包括**亨通、中天、烽火**等国内头部供应商[9] * CPU行业核心公司包括**英特尔、AMD、海光**,并提及**英伟达、苹果、博通**等芯片设计及代工厂商[10][12][20] 光纤光缆行业核心观点与论据 需求驱动因素 * **无人机需求激增**:军事应用(如俄乌战场)导致对**G657A单模光纤**需求大增,每台无人机需配置**20至40公里**单模光纤,预计从**2025年二三季度**起,该需求将占全球光纤总需求近**10%**[1][2] * **AI发展驱动数据中心需求**:数据中心内部及互联场景的光纤需求大幅提升,预计到**2027年**,AI相关需求将占全球光纤总需求的**30%**(2024年仅为**5%**),成为市场增长关键动力[1][2][4] * **北美市场供给紧缺**:服务于AI的数据中心厂商(如腾仓、康宁、Prisma)表态整体供给呈现紧缺状态[4] 价格变动与市场结构 * **光纤价格大幅上涨**:自**2025年12月中下旬**起,**G657A**单模光纤价格从**30多元/芯公里**涨至**55元以上/芯公里**;普通电信用**G652D**单模光纤价格从**20元出头/芯公里**涨至**35元以上/芯公里**,涨幅超出预期[1][2] * **产能结构性转移**:厂商将**G652D**产能转向生产价值更高的**G657A**产品,导致电信市场的**G652D**供不应求,进一步推高其价格[2][3] * **国内运营商集采影响**: * **中国联通**:去年初集采报价金额较低,头部厂商参与度不高,**中天和烽火**以较高价格中标但份额靠后[8] * **中国移动**:去年6月集采价格回升,光缆价格为**47~48元/芯公里**,对应光纤部分约**18元/芯公里**[8] * **中国电信**:市场关注其后续集采策略,有传言称其希望压低价格[8] 供需关系与未来展望 * **供需缺口持续**:预计到**2027年**,全球光纤总需求量达**8亿芯公里**,供应约**8.1亿芯公里**,即便按最高拉丝效率计算,仍有约**5%**的供需缺口[1][5] * **价格高位波动**:未来两年供需关系维持紧张,行业将保持较高水平的价格波动,并可能进一步上涨[5][6][7] * **短期价格影响因素**:无人机需求的持续性(尤其在二三季度)以及电信市场的短期集采行为[7] * **厂商策略**:核心供应商可通过重点销售给联营企业而非低价参与运营商招标来保障利润,海外出口占比高、价格弹性强,在当前散纤涨价背景下,**亨通、中天**等头部厂商业绩前景良好[9] CPU行业核心观点与论据 市场变化与涨价原因 * **出现涨价与二级市场异动**:近期CPU市场出现明显涨价[10] * **产能受限与挤占**:高端**GPU**和定制**ASIC**芯片单晶圆产出价值高于传统CPU,芯片代工厂在产能分配上存在倾斜[10] * **先进制程产能被瓜分**:根据TrendForce 2026年1月报告,到**2027年**的台积电**N2**和**N3**先进制程产能已被**苹果、英伟达、博通**等巨头瓜分[10] * **供应链瓶颈与原材料短缺**:高端封装技术瓶颈恶化供应链,上游原材料(如**ABF载板**、封装材料、金属)短缺且持续上涨[10] * **出货周期延长**:CPU出货周期从正常**8~10周**延长至**24周以上**[10] 具体产品涨幅 * **服务器CPU**:**英特尔Xeon Scalable**和**AMD Epic**通用服务器CPU主流型号在**2025年一季度**已上涨几个百分点,预测**2026年**将继续上涨**10~20%**[11] * **桌面级CPU**:高端消费级AI PC桌面级CPU(如英特尔**I9、I5**及AMD **Ryzen 95**)在**2025年四季度**已上涨超过**10%**[12] * **新型号定价更高**:如英特尔**18A**产品相较之前最高端产品有**18~20%**的涨幅,此逻辑同样适用于国产品如**海光CC86**系列新品[12] * **老平台产品**:因渠道囤货及返点收缩,也存在继续波动上涨情况[12] AI Agent驱动的新需求 * **需求显著增加**:AI Agent时代需要运行大量不可预测的AI代码,需快速、安全地创建隔离环境(沙箱),从而显著增加对CPU的需求[13] * **微虚拟机沙箱技术成为关键**: * **启动速度快**:传统虚拟机启动需几分钟,容器需十几秒,而微虚拟机沙箱启动时间已缩短到约**150毫秒**,并有望突破至**100毫秒**[14] * **弹性高**:可实现秒级扩缩,一台**128核CPU**可运行数百个沙箱,资源利用率从个位数提升至**70%**以上[14][15] * **安全性强**:通过动态调整权限、防止权限滥用、具备远程证明能力等方式提升安全性,适合处理高价值任务[16] * **适应复杂任务**:能使用浏览器、调用API处理长任务,预装工具,支持状态保存、任务中断/接续及克隆功能,提升智能化水平与效率[17] * **市场规模前景广阔**:预计到**2028年**,Agent与沙箱市场规模可能增长**上百倍**,CPU沙箱规模将迎来爆发式增长,并渗透到AI编程、数据分析、自动化办公、智能客服等各类场景[17][19] 行业趋势与挑战 * **CPU与GPU的关系**:在AI加速时代,模型训练中CPU是瓶颈之一(例如在Blackwell上,Edge to Edge开销可能达**35%**在CPU上),解决方案包括加快CPU硬件速度或将部分计算负载转移至GPU/ASIC[20] * **AI驱动半导体行业趋势确定但面临挑战**: * 中长期AI驱动半导体行业趋势确定,但需要时间实现[21] * 投资者担忧AI资本支出增长及产能问题(如英特尔**18A**制程良率爬坡和资本开支压力)[21] * 商业化进程未完全解决,存储器成本上涨已构成压力,再增加大量CPU增量可能面临挑战[21] * 从供需看,**DRAM、NAND**等存储芯片需求旺盛且业绩落地较快,实际推动整个产业链涨价贯穿**2026年**仍会持续[21]
财通证券:看好CPU及相关产业链 AI Agent沙箱化有望带来CPU新增量空间
智通财经网· 2026-01-26 09:45
文章核心观点 - 随着AI Agent的持续发展和沙箱化部署,用于风险隔离的沙箱技术将创造CPU增量需求,为CPU厂商及相关产业链带来新的增长点 [1] AI Agent沙箱化部署趋势 - 海外市场:Meta于2025年12月以超过20亿美元收购了专注于AI Agent与沙箱化架构的创新公司Manus,此举有望加速沙箱化技术的推广和应用 [1] - 国内市场:阿里云等主流云平台已发布并迭代以AI Agent Sandbox为核心的AI Agent Infra产品体系,预示着Agent沙箱化部署正逐步落地 [1] 沙箱技术的必要性及CPU需求 - AI Agent通过函数调用(输出结构化JSON对象)实现理解与执行的分离,但当前系统无条件信任LLM输出,存在被诱导调用高权限工具(如执行系统命令、删除文件、访问敏感数据库)导致隐私泄露等安全风险 [2] - 为控制AI Agent执行不可信代码或访问外部工具的风险,沙箱技术被广泛应用,其底层基石之一是基于KVM的微虚拟机技术,而KVM作为Linux内核模块需要CPU的硬件支持 [2] - 沙箱隔离技术在控制AI Agent潜在风险的同时,将带来CPU的增量需求空间 [1][2] 潜在受益的产业链环节 - 海外CPU厂商:如AMD、Intel [3] - 国内CPU替代链:包括海光信息、龙芯中科 [3] - AMD相关供应链:涉及通富微电、奥士康、世运电路 [3] - Intel相关供应链:涉及澜起科技、世运电路、兴森科技 [3]
从技术狂欢到价值兑现,AI大模型下半场怎么打?
格隆汇· 2026-01-26 05:07
行业整体趋势与市场格局 - 大模型行业正处在从“技术狂欢”走向“价值兑现”的关键转折点,竞争从百花齐放进入快速洗牌阶段,市场格局从分散走向集中 [3] - 2024年中国大模型市场规模为294.26亿元,同比增速高达62%,预计2025-2026年增速维持在50%以上,2026年市场规模将突破700亿元,产业进入商业化规模化应用期 [13] - 行业“马太效应”显著,市场资源加速向头部集中,缺乏资金或技术实力的中小玩家被淘汰,部分企业因算力成本高企、商业化不及预期被迫收缩业务线,转向垂直领域 [12] 主要参与者竞争动态 - 字节跳动以“更强模型+更低价格+更易落地”的打法迅速抢占市场,其豆包大模型1.8版本月活超1.5亿,在多项评测中接近全球顶尖通用模型 [5] - 阿里将AI提升为最高战略,千问从问答工具升级为AI Agent,全面接入淘宝、支付宝、高德、飞猪等业态,构建消费全链路闭环,并发布开源通义千问Qwen系列 [2][9][8] - 百度发布文心大模型4.5与深度思考X1,前者多模态能力优于GPT-4o且API价格仅为竞品的1%,后者为首个自主运用工具的深度思考模型 [7] - 腾讯在元宝项目上2025年6、7月的广告投放额达到10亿元,通过疯狂投流抢夺用户 [6] - DeepSeek R1系列推理模型创下一周增长1亿用户的纪录,其V3.1版本核心基准测试性能提升超40%,始终以MIT协议开源 [4][11] 商业化路径与市场分化 - B端应用面临可靠性、标准化等挑战,交付周期长、成本高,难以形成规模效应,可能迎来一段时间的冷静期 [14][21] - C端应用呈现多元化发展态势,巨头纷纷在办公、购物、学习、外卖、健康等多种生活场景加码,展现出更为广阔的商业前景 [14] - 投资人/机构更倾向于投资AI应用、消费者应用、AI基础设施类型的创新企业,而非底层模型的创新企业 [12] - 智谱、MiniMax、阶跃星辰等独角兽在坚守大模型训练的同时,前所未有地重视商业化落地,通过产品生态渗透C端市场 [12] 技术演进与产品形态 - 大模型正从“对话机器”转变为“行动伙伴(Agent)”,开启“AI办事时代”,例如千问和豆包AI手机都具备了自主跨应用操作能力 [3][21] - 2026年主要技术趋势为多模态、长文本、多智能工具调用和复杂推理能力的持续突破 [22] - 2026年可能被定义为“百亿智能体之年”,智能体将成为具备深度目标规划与执行能力的数字助手 [22] 挑战与新现象 - C端用户需求复杂且个性化,对AI大模型产品提出了持续快速迭代的高要求 [15][19] - 出现“生成引擎优化(GEO)”现象,商家通过结构化知识“投喂”影响大模型回答,使其带有营销倾向,可能破坏公平竞争环境并成为诈骗温床 [19][21] - 大模型应用带来数据隐私、算法偏见、责任认定等挑战,已有金融黑灰产组织通过干扰大模型产出虚假信息进行诈骗 [19][20] - 政策合规加速成型,《人工智能生成合成内容标识办法》将可信与安全纳入核心考核指标,倒逼企业将安全机制前置 [22] 未来展望 - 大模型赛道竞争将从单一模型能力比拼,升级为“生态体系”完整度与开放度的较量,巨头致力于构建更深更宽的“护城河” [22] - 基于AI大模型的应用将迎来进一步爆发,形成更丰富的应用生态,2026年或迎来更深度的整合与创新 [23][24] - 通用模型与专用模型的协同发展将更加紧密,商业化落地效率有望进一步提升 [24]
AI的Memory时刻3:AIagent对CPU需求增加
广发证券· 2026-01-25 21:00
行业投资评级 * 报告未明确给出整体行业投资评级,但对重点公司均给出了“买入”评级 [4] 核心观点 * AI Agent的普及将显著提升对CPU的需求,并带动内存条及接口芯片等上游基础设施的价值提升,AI记忆正从“费用项”转变为“资产项” [3][25] 分章节总结 一、AI Agent对CPU需求增加 * AI Agent时代,单个用户可同时调用多类Agent驱动服务器端应用,整体调用频次与覆盖面显著高于人类使用,带来更多系统请求、数据搬运与控制流开销,从而抬升CPU负载 [3] * AI Agent的工作流程演化为“感知-规划-工具调用-再推理”的闭环,其中工具调用、任务调度、信息检索等关键环节均依赖CPU完成,随着Agent渗透率与工具调用密度提升,CPU作为中间调度枢纽的占用线性放大 [3] * 为保障安全,Agent运行时普遍采用沙箱/虚拟化隔离,这会带来额外的进程与内核开销,并提升IO带宽与本地SSD缓存需求,进一步推高CPU、内存及存储的配置要求 [3] 二、CPU配比不断提升 * 根据第三方报告,目前每个GPU兆瓦(MW)对应的CPU配比低于10%,预计到2026年第二季度,该比例将上升至15% [3] * 报告基于300MW GPU建筑功率进行测算:当CPU配比率为16%时,单颗GPU对应的额外通用服务器CPU数量为0.29个,总CPU数量为0.79个;当CPU配比率提升至25%时,单颗GPU对应的额外通用服务器CPU数量为0.45个,总CPU数量为0.95个 [17] * 假设全球B200和ASIC出货量分别为800万颗和700万颗,则对应的AI集群X86 CPU总需求分别为610万颗和855万颗,相较于现有通用服务器CPU存量(2400万颗),AI带来的增量需求分别为25%和36% [17] 三、内存条和接口芯片空间广阔 * **需求数量**:通用服务器内存配置多以半插(1DPC)为主,而AI服务器为满足更高容量与带宽需求,趋向全插(2DPC),因此DIMM内存条的需求增长约为CPU数量增长的2倍 [3] * **价值提升**:X86 CPU配置的内存形态有望从传统RDIMM逐步向MRDIMM方案演进,需要引入更复杂的接口芯片,推动配套芯片平均售价(ASP)提升 [3] * **性能优势**:MRDIMM Gen2在AI负载下,其带宽可比DDR5 RDIMM提升高达2.3倍,并在大模型推理的KV Cache场景下提供确定性增益 [20][23] 四、投资建议 * 报告认为AI记忆是支撑上下文连续性、个性化与历史信息复用的底层能力,将持续扩展模型能力边界,促进AI Agent等应用加速落地 [25] * 建议关注产业链核心受益标的 [3][25] * 报告列出了澜起科技、聚辰股份、兆易创新、中微公司、拓荆科技、北方华创等六家重点公司,并均给予“买入”评级 [4]
一周热门项目动态:Farcaster 被收购、WLFI 举办首届论坛、Pendle 推出新经济模型等(0118–0124)
新浪财经· 2026-01-25 14:55
社交媒体与去中心化协议整合 - Neynar将收购并接手Farcaster,未来数周内将整体移交Farcaster的协议合约、代码仓库、官方应用及Clanker,由Neynar负责运营、维护、协议治理、开发者沟通及基础设施运维 [1] - Mask创始人Suji Yan披露其是Neynar的小股东,且Mask正在使用Neynar的软件与技术,并祝贺此次收购 [1] - 此前,Aave创始人表示社交协议Lens的管理权限将移交给Mask团队,原团队将担任技术顾问 [1] 加密项目活动与市场动态 - 特朗普家族加密项目World Liberty Financial (WLFI) 宣布将于2026年2月18日在海湖庄园举办首届World Liberty Forum,聚焦金融、科技与政策,与会嘉宾包括高盛CEO、富兰克林邓普顿CEO、美国CFTC主席等政商领袖 [2] - WLFI论坛将重点讨论数字资产、AI、全球金融市场变革及地缘政治风险,并透露将在会上发布新的重要进展 [2] - NFT项目Moonbirds宣布其BIRB代币将于1月28日在Solana上进行代币生成事件(TGE),受此消息影响,其NFT地板价近24小时上涨7.9%,暂报2.46 ETH [2] 隐私协议与AI代理生态发展 - 基于以太坊构建的隐私协议Railgun使用量创新高,近期每日的代币保护交易笔数达到328笔新纪录 [3] - 围绕ERC-8004的AI Agent生态系统正在展开,涵盖基础设施、代理编排、框架、AgentFi、开发者工具、身份和声誉、市场与发现、代理、存储、数据和文本以及公链等多个领域 [3] 公链战略与治理进展 - 支付公链Keeta宣布已签署协议计划收购一家银行,以扩展其合规与受监管能力,并推动其网络更深度接入传统金融基础设施,Keeta Inc.已批准从战略储备中拨付3500万枚KTA用于此次收购 [4] - Cardano基金会完成治理路线图首个里程碑,新增向11名社区代表委托约2.2亿枚ADA,使基金会当前委托给社区代表的总量增至3.6亿枚ADA,基金会将对剩余约1.71亿枚ADA进行自我委托以确保所有资产参与治理 [4] DeFi协议升级与孵化计划 - Pendle宣布推出sPENDLE并于1月20日开放质押,将逐步取代vePENDLE成为新的治理与收益代币,sPENDLE采用14天退出期,协议收入将用于回购PENDLE并分配给符合条件的sPENDLE持有人 [5] - Pendle将把原手动投票的激励分配升级为算法化排放模型,预计整体排放减少约30%,并提升激励分配效率 [5] - PumpFun推出投资机构Pump Fund,并同步启动总规模300万美元的Build in Public Hackathon,该计划将支持12个项目,每个项目获得25万美元资金,对应1000万美元估值 [5] 现实世界资产代币化进展 - Ondo Global Market在BNB Chain上的股票代币市值近期突破1亿美元,自去年12月初以来增长近10倍 [6] - 随着Ondo Global Market拓展至Solana,目前其在Ethereum、BNB Chain和Solana上的股票代币总市值已逼近5亿美元,占股票代币化总市值超50% [6]