Workflow
Agent
icon
搜索文档
东吴证券:AI算力需求发生结构性分化 CPU多核化与需求放量进入确定性通道
智通财经网· 2026-01-28 15:13
AI Agent发展推动算力需求结构性分化 - 核心观点:AI发展从“纯对话”模型转向“执行任务”的智能体(Agent),导致算力需求发生结构性分化,CPU的重要性显著提升,从GPU的附属角色演变为需要单独规划的核心资源池 [1] - 具体分化体现在两个方面:1) 执行控制流CPU化:Agent行动阶段涉及大量if/else判断与系统调用,这类分支任务不适合GPU执行,会导致算力利用率急剧下降,而CPU架构长期优化于此 [1];2) 记忆体系去GPU化:Agent长上下文推理产生巨大的KV cache,会快速耗尽GPU的HBM容量,CPU搭配大容量DDR5/LPDDR5并通过CXL扩展来承载KV Cache成为兼顾吞吐、扩展性与成本的主流架构 [1] CPU成为Agentic AI的性能瓶颈与需求驱动 - 研究数据显示,在完整的Agent执行链路中,工具处理相关环节在CPU上消耗的时间占端到端延迟的比例最高可达90.6% [2] - 在高并发场景下(Batch Size提升至128),CPU端到端延迟从2.9秒跃升至6.3秒以上,系统吞吐瓶颈在于CPU的核心数并发调度问题,而非GPU计算能力 [2] - 随着Agent商业化推进,厂商需持续压低每次任务执行成本,超多核CPU凭借更高的并行度和更低的单位功耗,成为支撑大规模、长期运行Agent环境的关键 [3] 产业端软硬件基础设施加速演进 - 头部云服务提供商(CSP)如AWS和Google Cloud正在加速建设面向Agent的沙盒环境软硬件基础设施,强化软件层的隔离与编排能力,为CPU侧基础设施规模化部署奠定基础 [3] - CPU龙头厂商向超多核架构演进以应对Agent需求:AMD推出的Turin最高可达192核;Intel的Sierra Forest采用纯能效核设计,核心数可达144甚至288核 [3] - 英伟达在新架构中主动提升CPU配比,确认了在长上下文与高并发Agent场景中,大内存CPU是承载海量KV Cache的最优容器 [3] 相关投资机会 - 海光信息受益于Agentic AI推动CPU从调度走向高并发执行的核心算力地位抬升 [4] - 澜起科技受益于长上下文与高并发场景下CXL驱动的“存力+算力”协同升级 [4] - 建议关注龙芯中科、万通发展(数渡科技) [4]
【大涨解读】云计算:“AI通胀”继续传导,海外云计算龙头接连涨价,Clawdbot爆火还带动Agent爆发
选股宝· 2026-01-28 11:36
行情表现 - 1月28日,云计算概念板块整体大涨,多只个股出现显著上涨[1] - 美利云(000815.SZ)一字涨停,收盘价14.28元,涨幅+10.02%,换手率7.80%[2] - 网宿科技(300017.SZ)涨幅+18.46%,收盘价16.04元,换手率26.14%,公司提供数据中心及液冷节能解决方案[2] - 英方软件(688435.SS)涨幅+16.60%,收盘价56.68元,公司推广华为、腾讯、阿里等云资源供应商的产品及服务[2] - 欧陆通(300870.SZ)涨幅+15.59%,收盘价263.46元,换手率10.20%,公司是主要的数据中心电源生产制造企业之一[2] - *ST立方(300344.SZ)涨幅+12.32%,收盘价1.55元,换手率17.49%,公司是专注于新型数字基础建设的数字科技云服务商[2] - 太辰光(300570.SZ)涨幅+8.97%,收盘价114.46元,换手率20.33%,公司产品主要应用场景包括电信网络、数据中心及物联网[2] - 双良节能(600481.SS)涨幅+8.22%,收盘价8.82元,换手率11.97%,公司液冷产品主要用于数据中心[2] - 首都在线(300846.SZ)涨幅+8.18%,收盘价29.09元,换手率23.04%,公司主营业务是为千行百业提供包括计算云和智算云在内的云主机及相关服务以及IDC[2] 行业事件 - 谷歌云宣布自2026年5月起正式上调全球数据传输服务价格,其中北美地区费率较当前水平提高约一倍[3] - 亚马逊云科技上调其EC2机器学习容量块价格约15%,其中p5e.48xlarge实例每小时费用由34.61美元涨至39.80美元[3] - Clawdbot爆火,国内云计算厂商优刻得、首都在线等相继上线相关服务[3] 机构观点 - 此次涨价确认了全球AI算力需求端的高景气度,同时AI云产业链资源稀缺性或日益凸显[4] - 涨价标志着二十年来云服务价格只降不升的行业惯例被打破,一旦提价成功,后续涨价会变得更容易[4] - 北美大型云厂商云业务保持快速发展,需求端的高景气度成为价格提升的重要基础[4] - AI推理等需求整体提升,推动云厂商云业务收入持续提升[4] - AI Agent时代对基础设施要求持续提升,需要大规模弹性的沙箱环境、支持会话级状态保持与长时间运行、灵活的工具调用服务与强大的知识记忆能力[4] - 2024年以IaaS、PaaS、SaaS为代表的全球云计算市场规模已达6929亿美元,同比增长20.3%[4] - 随着AI模型训练对IaaS需求的持续拉动,以及应用类模型服务在SaaS端的不断丰富,全球云计算市场需求有望进一步提升[4] - 据中国信通院预计,到2030年全球云计算市场规模有望接近2万亿美元[4] - Clawdbot标志着AI产品形态从“场景级助手”迈向“系统级Agent平台”[4] - Agent的加速落地是作为智能执行中枢提升整体效率,而非完全取代传统软件[4] - Agent更像是软件价值的放大器,随着其在企业运营、客户服务、数据分析等领域逐步兑现效率红利,AI应用层公司有望从“技术叙事”迈入“收入与效率驱动”的新阶段[4]
计算机行业点评:Clawdbot演进,Agent时代将近
申万宏源证券· 2026-01-27 21:29
行业投资评级与核心观点 - 报告对计算机行业给予“看好”评级 [1] Clawdbot与Agent演进的核心观点 - Clawdbot标志着AI产品形态从“场景级助手”迈向“系统级Agent平台”,其核心功能涵盖目标理解、任务拆解、多系统协同操作、过程反馈与自我修正等关键模块,使Agent从“在某个软件中协助人类”升级为“能够接收目标并交付结果的执行主体”,应用边界显著扩展 [3] - 从技术与产品逻辑看,Skills、Claude Excel与Clawdbot构成了一条清晰的Agent演进路径:Skills解决“模型如何行动”的基础技术问题,Claude Excel回答“模型在特定业务场景是否具备可用性”的产品问题,Clawdbot则尝试解决“模型能否承接完整任务系统”的平台问题 [3] - 市场关注点正从模型参数规模与基础推理能力,转向模型是否能够稳定调用外部工具、拆解复杂任务并完成真实业务流程 [3] - Clawdbot的革命性体现在突破了“目标驱动”范式,它尝试理解用户的高层意图并自主拆解为一系列有序的操作步骤,这种跨工具、跨系统的协同执行能力为复杂工作流的自动化提供了全新解决方案,是AI从“辅助性生产力”迈向“准自主生产力”的重要一步 [3] - Agent的加速落地不意味着传统软件被取代,而是作为智能执行中枢提升整体效率,更现实的产业趋势是Agent成为软件的智能交互与自动化中枢,而传统SaaS与软件系统继续承担底层业务逻辑与数据基础设施的角色,Agent更像是软件价值的放大器 [3] - 随着Agent在企业运营、客户服务、数据分析、内容生产与流程自动化等领域逐步兑现效率红利,AI应用层公司有望从“技术叙事”迈入“收入与效率驱动”的新阶段,具备显著的中长期成长空间 [3] AI应用重点公司估值 - 报告列举了16家AI应用重点公司的估值数据,包括总市值及2024年至2027年的归母净利润预测与市盈率(PE)估值 [4] - **金山办公 (688111.SH)**:总市值1,635亿元,2024A归母净利润16.5亿元,2027E预测为28.0亿元;2024A市盈率99倍,2027E预测市盈率58倍 [4] - **用友网络 (600588.SH)**:总市值533亿元,2024A归母净利润-20.6亿元,2027E预测为6.6亿元;2026E预测市盈率256倍,2027E预测为81倍 [4] - **中控技术 (688777.SH)**:总市值674亿元,2024A归母净利润11.2亿元,2027E预测为15.3亿元;2024A市盈率60倍,2027E预测为44倍 [4] - **金蝶国际 (0268.HK)**:总市值440亿元,2024A归母净利润-1.4亿元,2027E预测为6.8亿元;2025E预测市盈率360倍,2027E预测为64倍 [4] - **合合信息 (688615.SH)**:总市值423亿元,2024A归母净利润4.0亿元,2027E预测为7.3亿元;2024A市盈率106倍,2027E预测为58倍 [4] - **税友股份 (603171.SH)**:总市值320亿元,2024A归母净利润1.1亿元,2027E预测为5.1亿元;2024A市盈率284倍,2027E预测为62倍 [4] - **新大陆 (000997.SZ)**:总市值287亿元,2024A归母净利润10.1亿元,2027E预测为18.1亿元;2024A市盈率28倍,2027E预测为16倍 [4] - **汉得信息 (300170.SZ)**:总市值272亿元,2024A归母净利润1.9亿元,2027E预测为3.8亿元;2024A市盈率144倍,2027E预测为71倍 [4] - **虹软科技 (688088.SH)**:总市值216亿元,2024A归母净利润1.8亿元,2027E预测为4.2亿元;2024A市盈率122倍,2027E预测为52倍 [4] - **万兴科技 (300624.SZ)**:总市值177亿元,2024A归母净利润-1.6亿元,2027E预测为1.4亿元;2025E预测市盈率1330倍,2027E预测为125倍 [4] - **鼎捷数智 (300378.SZ)**:总市值160亿元,2024A归母净利润1.6亿元,2027E预测为2.9亿元;2024A市盈率103倍,2027E预测为54倍 [4] - **能科科技 (603859.SH)**:总市值121亿元,2024A归母净利润1.9亿元,2027E预测为3.6亿元;2024A市盈率63倍,2027E预测为33倍 [4] - **博思软件 (300525.SZ)**:总市值105亿元,2024A归母净利润3.0亿元,2027E预测为4.3亿元;2024A市盈率35倍,2027E预测为24倍 [4] - **赛意信息 (300687.SZ)**:总市值101亿元,2024A归母净利润1.4亿元,2027E预测为2.9亿元;2024A市盈率72倍,2027E预测为35倍 [4] - **润达医疗 (603108.SH)**:总市值100亿元,2024A归母净利润0.6亿元,2027E预测为3.6亿元;2024A市盈率181倍,2027E预测为28倍 [4] - **福昕软件 (688095.SH)**:总市值100亿元,2024A归母净利润0.3亿元,2027E预测为1.7亿元;2024A市盈率371倍,2027E预测为60倍 [4] - **新致软件 (688590.SH)**:总市值56亿元,2024A归母净利润0.1亿元,2027E预测为2.2亿元;2024A市盈率695倍,2027E预测为26倍 [4]
2026,进入AI记忆元年
36氪· 2026-01-27 18:16
行业趋势:AI竞赛进入以记忆为核心的下半场 - 自2023年年中起,SOTA模型的迭代周期被快速压缩至35天,曾经的SOTA模型在短短5个月就可能跌出Top5,7个月后连Top10都难以进入[3] - 模型技术进步进入瓶颈期,而过去两年多围绕AI记忆的技术和产品(如向量数据库、记忆框架)则呈现“你方唱罢我登场”的热闹景象[4] - 市场正诞生出越来越多跑通PMF的细分爆款,如代码补全、情感陪伴、智能客服等“模型+记忆”的商业模式[4] - 大模型的叙事正从以scaling law为核心的参数闪电战,切换至以记忆为主导的马拉松式下半场,记忆能力已成为拉开不同模型和Agent表现的核心来源[33] 对AI记忆的行业误解与红熊AI的解决方案 误解一:记忆等于RAG加长上下文 - 2023-2024年AI基础设施爆发期,RAG技术一度成为AI记忆的代名词,行业普遍认为叠加长上下文窗口和检索优化算法就能解决AI健忘问题[8] - 红熊AI创始人指出,传统RAG在落地中暴露出短板,例如在法律场景中,语义相似但适用范围天差地别的法条细节会被整体相似性掩盖,且无法遵循法律体系的优先适用规则[9] - 在客服AI场景中,RAG方案会导致每天重复回答相同问题时产生不必要的检索成本,并且在用户跨会话咨询时出现记忆丢失[10] - 基于语义检索的RAG方案只能解决不到60%的真实需求,其本质是被动的检索工具,无法解决“记不住”的核心矛盾,且通常只能以周为单位做离线数据更新,无法实时写入[10] - 红熊AI借鉴人脑记忆逻辑,打造了完整的记忆科学体系,将AI记忆拆解为显性记忆、隐性记忆、联想记忆以及动态进化记忆,不同层之间通过智能算法动态流转[12] - 该体系为记忆加入了情感加权、智能遗忘、跨智能体协同等能力,从底层重构了AI记忆的逻辑,解决了存储数据量爆炸带来的成本飙升和上下文过长问题[12] 误解二:事实检索重于一切 - 红熊AI团队曾将准确率当作记忆系统的唯一KPI,这在金融风控、技术运维等事实优先的场景中运行顺畅[15] - 但在情感咨询等场景中,用户需要的是被理解、被安抚、被肯定,而非精准的事实答案[17] - 这倒逼红熊AI攻克了记忆系统的情感难题,通过给每段记忆贴上情感权重标签,从多维度量化用户情绪(如文本中的负面/正面词汇密度、句式、情绪强度词,综合算出0-100分的情感分数)[18] - 情感权重不仅决定记忆的优先级,更影响AI的回应逻辑,例如当用户有高负面评价历史时,AI会优先安抚再同步事实信息[18] 误解三:Agent的未来是标准化 - 尽管市场期待超级Agent,但红熊AI认为Agent类产品的宿命是革命传统SaaS,但也必须走上SaaS非标碎片化的老路[22] - 没有一套标准化的记忆系统能适配所有行业,甚至同一行业的不同品类都需要差异化定制,例如电商中卖手机壳和卖手套的商家关注的关键词和记忆规则都不同[22] - 不同行业的情感权重占比天差地别:售后客服、教育场景情感权重占40%-50%,必须优先安抚情绪;医疗、金融风控场景仅占10%-20%,事实优先;通用陪伴场景占20%-30%[23] - 红熊AI必须在做好标准化能力的基础上,接受在解决方案环节的非标准化[24] 红熊AI的产品与能力建设 - 红熊AI在今年1月推出记忆熊v0.2.0,构建了完整的记忆科学体系[12] - 在记忆熊v0.2.0中,公司强化了集群化Agent记忆协同能力,通过引入统一记忆中枢,实现多Agent间的最小化、按需式记忆共享,解决传统多Agent系统的记忆冗余、冲突问题[24] - 针对多模态数据处理,公司推出了三大解析引擎实现100%版面还原,支持PPTX高保真解析、音视频以文搜音,并通过向量+图谱双驱动检索,将多跳推理准确率提升至92.5%[24] - 非标环节集中于行业词汇库积累和知识图谱打造,首次拓展新品类客户时,前期与客户共建及知识梳理就需要几周时间,用户数据处理消耗整体25%上下的成本[27] - 公司需要不断学习积累不同行业知识,例如医疗行业的负面词是“疼痛、过敏、并发症”,金融行业核心词是“平仓、建仓、净值”[29] - 这种前期非标准化的缓慢开拓,会成为企业的先发优势和核心壁垒,遵循SaaS行业从灯塔客户到细分行业解决方案再到全行业拓展的成长路径[30][31]
OiiOii:一张通往“超级动画导演”的入场券 |「锦供参考」Vol.02
锦秋集· 2026-01-26 17:13
文章核心观点 - AI技术正在显著降低动画创作的门槛,使动画产业从传统的重资产、工业化流水线模式,向“意图主导”和“单人工作室”模式转变 [4][5] - OiiOii公司通过构建一个以用户为“导演”、多个AI Agent为协作系统的产品,旨在服务中国泛ACG领域约180万个活跃创作者,释放其创造力并极大提升内容生产效率 [4][31] - 视频AI模型将呈现多元化发展,垂直领域的AI Agent(如动画)因其对特定工作流和审美的深度理解,拥有独立于大模型厂商的生存和发展空间 [49][50][51] AI动画行业变革 - **传统流程复杂**:传统3D动画制作链条长,涉及剧本、角色设计、建模、分镜、贴图、灯光、渲染、剪辑等多个高度工业化的复杂环节 [8][9] - **AI压缩流程**:AI技术显著压缩了传统动画制作流程,尤其是模型层工作(如灯光、渲染),但核心创作逻辑(故事、角色设计、场景)并未改变 [10][11][12] - **降低门槛与改变角色**:AI使得产业链上原本只负责单一环节的专业人士(如建模师)有机会成为“导演”,完成个人创作,动画创作从集体重资产消耗进入“意图主导”时代 [5][13] - **提升行业产能**:AI有望缓解动画行业因高昂单位成本和漫长制作周期导致的产能不足问题,例如将现有账号的更新频率从周更提升至日更 [13][31] - **技术发展路径**:视频生成模型可能通过学习大量优秀动画内容直接生成结果,而非必须完全解决底层物理问题,这为动画AI发展提供了新路径 [17] - **中外技术氛围差异**:与美国(如迪士尼与高校深度合作)不同,中国动画行业与顶级高校间的技术合作几乎缺失,技术氛围尚未建立 [18] OiiOii产品战略与用户洞察 - **产品定位与理念**:产品定位为服务PUGC(专业用户生产内容)创作者,采用AI Agent模式,将用户设定为“导演”,AI Agent作为其执行团队,旨在增强用户对作品的“拥有感” [23][26] - **目标用户规模**:核心目标用户是中国泛ACG领域约180万个活跃账号,这些账号通常由2-3人维护,周更一次,使用工具后有望实现日更甚至更高频更新 [31] - **用户画像扩展**:工具不仅服务现有动画创作者,也吸引了大量无动画经验的潜在用户,包括性格内敛的北漂者、小学老师、专业插画师、父母等,用于制作Vlog、教学课件、个人故事和儿童内容 [4][41][42][43] - **效率提升显著**:对于目标用户群体,使用工具后内容生产效率成本预计能降低百倍 [32] - **技术架构挑战**:产品在平衡小白用户“一键生成”的惊喜感与专业用户“高度自由编辑”需求上面临挑战,技术架构已迭代多次以寻求稳定工作流与自由编辑的兼顾 [33] - **分镜生成优势与难点**:产品成熟度最高的环节是分镜Prompt扩写,能帮助用户用一句话表现故事性和情绪性;当前主要痛点是平衡分镜间的连贯性与场景切换带来的故事起伏感 [34] - **用户反馈与社区运营**:通过“听劝周报”等形式高度响应用户反馈,与用户“共建”产品,但有时过度听劝也可能导致产品调整失误 [35][36] - **海内外用户差异**:日本等海外用户更关注视觉精美度和风格多样性,而国内用户更注重故事信息量和“梗”,容易产出爆款内容 [38] AI视频领域竞争格局与Agent价值 - **对“一句话生成视频”的看法**:该模式对于20-30秒的简单视频成立,但对于4-5分钟的长创作不成立,且会削弱创作者的参与感和作品“拥有感” [48] - **垂直Agent的生存空间**:视觉模型因数据、标注标准和训练流程的细微差异会导致结果显著不同,因此很难一家独大,会呈现风格和领域专精的多元化格局,这为垂直领域Agent提供了发展机会 [49][50] - **模型与产品的边界**:在多模态领域,模型与产品之间有较清晰界限。视频创作需要多个模型协作和复杂的前置任务编排,这类高质量流程数据需通过产品在真实交互中积累,短期内模型厂商难以直接覆盖 [54][55] - **未来生态类比**:基础模型提供“食材”,而垂直Agent则是决定风味的“菜谱”或“餐馆”,未来视频Agent生态将像“小吃街”一样百花齐放,各自服务不同的内容形态和人群需求 [51][53] 创业与投资视角 - **创业体验**:创业者(CEO)会经历独特的孤独感,并在应对公司困境的过程中获得对抗焦虑的“抗体”,勇气和深度反思是推动迭代的关键力量 [56][57][58] - **投资动力**:投资人的核心动力包括好奇心(探索未知领域)、与优秀创始人交流获得的启发以及陪伴企业成长的过程 [61][62] - **2026年AI趋势展望**: - 模型智能与人类认知的差距将越来越小,推动大量可落地产品出现 [66] - 资本侧利好(如并购、上市)增强了创业者信心,AI行业目前受宏观经济影响较小,但最终将融入更广阔的科技生态 [67] - 看好的应用方向包括:新型多模态内容消费平台(探索互动性、模糊视频与游戏边界)以及主动式AI(能够理解上下文并进行预判) [68][69]
可聊天、看电影,元宝内测AI社交新玩法,马化腾亲自“安利”
搜狐财经· 2026-01-26 15:49
公司动态:腾讯推出AI社交新功能“元宝派” - 腾讯旗下AI助手“元宝”于1月26日低调开启全新社交AI玩法“元宝派”内测 [1] - 在腾讯2026年员工大会上,公司董事会主席兼首席执行官马化腾亲自为“元宝派”宣传,透露其旨在探索AI技术在多人社交场景下的深度融合 [6] - “元宝派”功能脱胎于腾讯会议里的AI探索和尝试,致力于打造一个能让AI与用户群体共同娱乐、协作的“社交空间” [6][8] - 该功能已打通微信、QQ等社交产品,用户可分享“派号”或专属邀请链接至微信朋友圈或好友,实现一键加入 [9] - 公司宣布将在元宝APP内派发10亿现金红包,以推广该应用 [9] - “元宝派”或将近期公测上线 [10] 产品功能与体验 - 用户可以选择创建一个“派”,或者加入一个已有的“派” [1] - 用户可以在派内@元宝或引用元宝的话,让元宝AI总结派内聊天、创建健身、阅读等兴趣打卡活动,并由元宝AI担任“监督员” [1] - 用户可以在派内进行“图片二创”,将普通照片变成有趣的“梗图”或表情包 [1] - 腾讯将向元宝用户开放QQ音乐、腾讯视频等海量内容,用户可以在元宝建立自己的“派”,实现和好友一起看、一起听 [6] - 后续公测将开放上线“一起看”“一起听”玩法,该玩法接入了腾讯会议的音视频底层能力,让用户可以邀请派内好友同步观看一部电影、一场比赛或听一首歌 [6] - 此前,元宝已和微信、QQ深度打通,用户可以在微信、QQ添加“元宝”为联系人互动,也能在公众号、视频号评论区@元宝,让其总结内容、拓展提问 [9] 战略意义与行业背景 - 此举标志着腾讯正将AI应用的探索方向,从提升个人效率的“工具”属性,延伸至连接人与人、增进群体互动的属性 [8] - 公司将AI战局拉进了自身最擅长的“社交场”,试图用“元宝派”打开一种全新的人与AI交互的模式 [8] - 当前,以“一对一”问答为核心的Chatbot(对话机器人)已成为AI应用的主流形态,主要体现为高效生产力工具的价值 [9] - 行业开始共同思考在“工具”之外,AI是否能以更自然、更深入的方式融入用户的日常生活 [9] - 业界的探索路径逐渐分野,一条是让AI模拟人类行为、完成复杂任务的Agent(智能体),另一条是将AI带入群体交流中,使其成为社交互动的一部分,“元宝派”正是腾讯在后一方向上的具体实践 [9] - 此前,元宝已稳居国内AI原生应用Top3,国内AI应用进入下半场,公司也许能在传统ChatBot基础上走出一条新路 [10]
CPU涨价会持续多久
2026-01-26 10:50
纪要涉及的行业或公司 * **行业**:AI Agent(人工智能代理)、CPU(中央处理器)产业链、云计算、服务器制造[1][2][3][4][5][6] * **公司**: * **CPU设计/供应商**:英特尔、AMD、海光信息、龙芯中科[1][2][19][22][23][24] * **服务器制造商/ODM**:浪潮信息、华勤、中科曙光[2][23][24][25] * **云计算厂商**:阿里巴巴(阿里云)、腾讯(腾讯云)、优刻得(UCloud)、AWS[2][5][6][22][24] * **CPU供应链**:和胜新材、中国长城、创意电子(GUC)、兴森科技(载板)[23][24][25] 核心观点和论据 * **核心观点一:AI Agent的兴起将驱动CPU需求呈指数级增长,而非线性增长**[1][14][16][17][21] * **论据1(需求来源)**:AI Agent任务范式从“推理-执行”(COT)转向“推理-执行-反思”,导致任务执行轮次和并行任务数量(步长)增加,CPU成为系统瓶颈,GPU利用率受制于CPU返回结果的速度[14][15] * **论据2(数据支撑)**:引用英特尔论文,在5个代表性Agent工作负载(如问答检索、数学计算、代码生成)中,CPU处理时间占比最高可达90%,远超GPU推理时间(仅10%)[7][8][9] * **论据3(增长模型)**:CPU需求增长与三个线性因素相乘相关:1) AI Agent渗透率;2) AI Agent任务步长;3) 工具调用频率。三者共同作用形成指数效应[16][17] * **核心观点二:CPU供应紧张,涨价趋势明确且可能持续一年以上,幅度可观**[1][4][14][19][20][21] * **论据1(供应瓶颈)**: * **英特尔**:受自身先进封装产能良率问题限制[1] * **AMD及云厂商自研ARM CPU**:受制于台积电先进制程(3纳米、5纳米)产能向GPU倾斜[1][20] * **整体**:Q1库存消耗后供应全年紧俏,载板等供应链扩产需要周期[2][3][4] * **论据2(涨价预期)**:产业链调研显示,高性能X86 CPU涨价幅度为“可观的双位数”;整体涨价趋势被类比为“存储2.0”,但更温和稳定,预计持续超一年[14][19][21] * **核心观点三:CPU需求增长不仅体现在AI服务器,更大量体现在通用服务器**[2][3][17][18] * **论据**:以微软为例,其采购NVIDIA AI服务器,CPU需求增长完全来自通用服务器。因为Agent任务瓶颈在于CPU开销(核数与数量),而非通信带宽,可通过增加通用服务器或CPU资源池形式解决[17][18][19] * **核心观点四:CPU及存储涨价将传导至云计算服务,引发云服务涨价潮**[2][21][22] * **论据1(成本压力)**:CPU、存储等硬件成本上涨给云厂商带来成本压力[21] * **论据2(传导动力与先例)**:云厂商有动力传导成本;海外AWS已上调GPU实例价格,为行业涨价开了头[22] * **论据3(预期)**:国内阿里云、腾讯云等厂商涨价“只是时间问题”,将带来利润率修复[2][5][22] * **核心观点五:投资机会沿产业链自上而下展开,CPU自身产业链最核心**[23][24][25] * **第一梯队(CPU产业链)**:国内看好海光信息(受益于供应紧张及市场化拓展)、中科曙光(持股海光+ODM);海外关注AMD、英特尔;供应链关注载板(如兴森科技)等[22][23][24][25] * **第二梯队(云计算)**:首推阿里巴巴,其次关注弹性较大的中小云厂商[24][25] * **第三梯队(服务器制造)**:浪潮信息、华勤等因CPU服务器毛利率更高而间接受益[23][24][25] 其他重要内容 * **需求量化展望**:预计到2026年,CPU需求增长幅度可能达到15%-20%,甚至30%-40%(两位数增长),而非此前预期的大个位数增长[19] * **技术细节佐证**: * **吞吐量瓶颈**:英特尔论文指出,当处理批次大小(Batch Size)达到128时,系统出现严重的CPU上下文切换瓶颈,限制吞吐量进一步提升[9][10] * **能耗变化**:在复杂Agent任务中,随着Batch Size增大,CPU能耗急剧上升,当Batch Size为128时,CPU能耗已接近GPU能耗[10][11] * **KV Cache卸载**:长上下文和KV Cache从HBM卸载到DRAM/SSD的过程,增加了GPU与CPU间的数据搬运需求,对通信带宽要求提高[16] * **市场认知差**:强调AI Agent对CPU的拉动是“指数级”增长,与市场其他观点可能存在的线性预期不同[1][21] * **国内产业动态**: * 阿里“通义千问”打通应用生态,内部调动大量CPU资源;预期腾讯、字节等将跟进推出类似超级入口[5][6] * 海光信息被看好从“信创市场”成功拓展至更广阔的行业及民营企业市场,成长天花板有望翻倍[22][23]
Agent到底对CPU带来怎样的需求
2026-01-23 23:35
行业与公司 * 行业:人工智能(AI)与计算硬件行业,特别是AI Agent、大模型推理、AI服务器和通用计算服务器领域 [1][2][4][21] * 公司:提及的技术与架构供应商包括英特尔、AMD、ARM、英伟达 [22][23] 核心观点与论据:AI Agent发展对CPU需求的影响 * **Agent数量增加直接推高CPU需求**:每个Agent执行任务时都需要复杂的数据处理和逻辑调度,多Agent系统的任务分配、通信协调和工具调用冲突处理也需要大量计算资源 [1][4] * **CPU用量增长介于线性与指数之间**:增长幅度取决于复杂长程任务的占比,未来几年用量可能接近2倍、4倍的增长,但不会完全达到指数级 [2][12] * **任务特性是影响CPU负载的核心变量**:长时任务(如2-4小时)对CPU负载影响大,而短时频繁任务影响较小 [1][6] 大模型的记忆能力是关键,记忆能力增强(如从1-2小时延长至1-2天)会提升长程任务占比,从而增加CPU需求 [6][7] * **AG类任务对CPU负载非常重**:用户输入约1,000个token,输出1,000-5,000个token,但中间计算过程可能消耗20万至50万个token,导致任务消耗比以往多10倍以上,甚至增长50至100倍 [11] 让AG承担更多实际工作的关键是连续工作的记忆能力,中断会导致效率下降 [11] * **虚拟机技术变化增加CPU需求**:现代AI集群中的虚拟机更注重硬件资源绑定,要求快速启停(1秒内启动)并具备常驻状态或标记点,这使得虚拟机与特定数量的物理核强绑定,增加了对高性能、高数量CPU的需求 [1][5] 核心观点与论据:CPU在AI计算中的角色与优化 * **CPU在大模型推理中起辅助作用**:在预填充阶段,CPU负责处理用户输入文本(规范化、分词等),将其转换为GPU可接受的格式 [2] CPU擅长处理数据搬运、多模态数据协调、集群硬件调度等逻辑密集型任务 [2] * **CPU在Agent推理中作用更为重要**:Agent实现从决策到执行的闭环需要复杂的逻辑引擎来调用工具、拆分需求、任务规划等,这些主要由CPU完成 [2] 例如分析公司股票,需要获取财报、计算指标并生成报告 [2] * **新技术(如Deepseek、Anagram)优化计算,部分工作负载向CPU转移**:这些技术引入类似字典的机制,利用CPU完成部分计算,减少GPU负担,优化了prefill阶段的输入文本处理,提升了查询效率和模型记忆能力 [1][10] * **CPU可用于小语言模型的推理和训练**:原理是将大模型量化到较低比特级别(如INT8或INT4),并将GPU算子转换为适用于CPU运行,但受限于并行能力,通常适用于端侧或边缘侧的小型设备,支持几个B或几十个B的小模型 [18] * **CPU对GPU的高性价比替代目前不现实**:在AI服务器中GPU不可或缺,普通CPU服务器无法替代GPU,在云计算等高复杂度场景仍需依赖GPU [12] 当前趋势是通过补齐AI服务器中的短板来提升性能,而非直接替代 [12] 核心观点与论据:硬件架构与性能考量 * **单个CPU核心支撑的Agent数量有限**:对于观看视频等轻量任务,一个核心可支撑2到5个Agent;对于编代码等稍复杂任务,一个核心可能只能支撑1到2个Agent [9] 随着Agent工作时间变长,每个核心能支撑的Agent数量减少 [9] * **当前瓶颈在于缓存容量,而非核心数量与频率**:L1、L2、L3缓存容量受限,需要通过更新解决,更重要的是增加CPU整体数量,并同步提升IO接口等硬件性能 [13] * **X86架构在软件生态兼容性上目前占优**:在创建虚拟机、调用底层编译器、控制浏览器内容通信等与Agent相关的应用中,X86表现更佳 [14] ARM架构在特定消费终端或移动设备生态中有其优势 [14] * **内存与存储管理增加CPU需求**:DRAM和SSD的冷热数据存储涉及数据通信,大模型需要适应不同存储逻辑和处理基于注意力机制的数据存储,这需要大量CPU计算资源 [2][15] 随着存储设备增加,大量数据的填充、截断、分散到不同设备,以及GPU服务器与其他系统间的数据传输,都需要CPU进行逻辑密集型处理 [17] * **数据向量化操作增加CPU需求**:将数据塞入GPU前需要通过向量化操作优化效率,这些操作通常由CPU完成,拉动对CPU数量和性能的需求 [16] 其他重要内容:市场、优化挑战与服务器趋势 * **高并发场景对CPU优化构成挑战**:即使单个简单任务占用资源极少,但若集中在短时段内(如午间外卖高峰),高并发性导致整体压力大,优化空间有限 [19] 用户规模增长时,CPU性能优化存在上限,优化可能提升60%效能,但在用户集中高峰期,提升比例可能降至40%左右 [20] * **通用计算服务器与AI服务器存在设计区别**:通用计算服务器主要挂载更多存储,而AI服务器因显卡占据空间,存储相对较少 [21] * **CPU供应稳定,主流厂商优势明显**:尽管市场有多个供应商,但在选择通用计算服务器时,稳定性和生态系统是关键,英特尔和AMD凭借成熟技术和生态占据市场主导地位 [22] 通用计算服务器已非常成熟,未来发展趋势仍将注重稳定性、性能及与现有生态的兼容性 [23]
2026 年的「创业」,就从一个 Skill 开始吧
Founder Park· 2026-01-23 21:31
Skill概念的市场热度与生态发展 - 2026开年,Skill概念热度持续攀升,迅速超越Agent、MCP等概念,成为各家产品争相支持的功能[2] - 在过去十几天里,Skill生态正在以数倍的速度持续扩张[2] - Skill主张将专家的工作SOP打包成可复用的资源包,其特点是搭建不难、易于分享且能交付结果[3] Skill的核心优势与市场进入门槛 - 创建Skill不需要Coding或拖拽搭建工作流,只需一套可复用的SOP即可,门槛比Vibe Coding还低,旨在让人人都能成为创作者[3] - 扣子2.0率先跟进Skill功能并快速推出「技能商店」,显示出主流平台对该趋势的快速响应[4] Skill招募大赛概况与目标 - Founder Park联合扣子举办Skill招募大赛,旨在鼓励分享最佳SOP实践,让能力成为一种流动的交换资源[5] - 大赛核心理念是将可标准化的执行工作交给Skill,使人的能力和时间聚焦于决策和创造[6] 大赛赛道设置与具体要求 - 大赛设置职场和极客两个赛道,参与者可选择1个或多个赛题进行Skill开发[6] - **职场赛道**:征集将日常工作方法论、专业领域知识、复杂性流程封装为可复用能力的实用性Skill,以助力职场人提效减负[7] - **工作效率提升方向**:针对述职汇报、会议协作、项目跟进等高频办公场景,将个人SOP转化为可复用技能,如自动整理会议纪要并输出行动项[9] - **市场营销创作方向**:面向内容创作者与营销从业者,打造具备强交付能力的营销类技能,覆盖从内容策划到素材投放的全流程场景[10] - **金融专业分析方向**:面向金融从业者,打造满足一致性规范、可审计、强决策支撑核心需求的专业技能,如财报关键指标速读、行业动态跟踪[11] - **极客赛道**:聚焦视觉冲击力、技术门槛与代码能力、交互体验的「魔法感」,征集具备技术突破性与体验创新性的Skill[12] - **强视觉冲击特效方向**:鼓励打造高质量视觉特效能力,如酷炫粒子效果、沉浸式3D空间场景、玻璃拟态等,需支持与交互行为的联动并兼顾性能[13] - **可视化库封装与应用方向**:征集可作为Skill能力模块独立调用的可视化方案,如动态智能图表、交互式地图等组件封装[14] - **代码创意交互方向**:倡导基于编程语言实现具有创意表达的交互型技能,如网页动画生成、新颖手势交互逻辑或结合硬件能力的联动效果[15] - 以上方向仅作为创作参考,不构成对技能形态或实现方式的限制,开发者可自由融合多个方向进行创作[16] 赛事奖励机制 - 入选优质Skill将公布至扣子技能商店页面[17] - 提供流量扶持,为优秀Skill加码商店内曝光资源[17] - 对符合条件的优质Skill开放付费权限,开发者可实现创作变现[18] - Founder Park社区提供额外福利:极客赛道入选Skill奖励500元京东礼品卡,职场赛道入选Skill奖励300元京东礼品卡,名额共计10份,按报名顺序发放[19] - 提供扣子周边作为奖励,福利名额有限,按报名顺序依次发放[19] 活动赛程与参与方式 - 报名提交通道自即日起开启,至2月9日20:00截止[20][21] - 赛事仅接受报名通道开启后才创建的Skill报名[21] - 报名时需填写Skill ID或Skill链接,需至少完成Skill创建后再提交报名表单[22] - 活动赛程包括:征集启动与提交Skill(即日起至2月9日20:00)、专家团队调研评审(2月9日至2月13日)、获选结果公布(2月14日)、奖励发放(2月27日至3月6日)[23] 高质量Skill的构建标准与判断方法 - 一个快速判断Skill是否成立的方法是:看其方法论能否在固定输入条件下,稳定产出「可直接使用」的结果,且在该场景下的效果与确定性明显优于通用大模型工具[25] - 高质量Skill的核心标准是:具备专业领域知识(非通用Agent能完成),本质上是一个产品,应像一个高度专业的虚拟员工,能独立、可靠地完成一项完整、有价值的任务[26]
学界大佬吵架金句不断,智谱和MiniMax太优秀被点名,Agent竟然能写GPU内核了?!
AI前线· 2026-01-23 17:18
文章核心观点 - 文章围绕“通用人工智能(AGI)能否成为现实”展开了一场深度辩论,两位来自学术界与产业界的一线研究者基于对算力、模型架构、应用落地的不同理解,阐述了各自对AGI定义、发展现状及未来趋势的判断 [6][7] - 尽管对AGI的实现路径存在分歧,但双方均认为,相较于抽象定义,AI技术(尤其是智能体)的实际“实用性”及其对工作方式的变革才是关键,并一致看好小模型、开源模型、新硬件及多元化架构的未来发展 [15][23][55] 关于AGI定义的争论 - **定义视角**:AGI的定义主要有两种主流视角,一种关注模型覆盖的认知任务广度,另一种则从经济角度出发,看其是否引发新的工业革命并改变生产方式 [14][35] - **共识与分歧**:双方达成共识,认为AGI的具体定义并不重要,关键在于它是否改变了人类的工作方式 [15][55]。丹·傅认为,以5-10年前的标准看,当前的语言模型在写代码、生成语言等方面已实现早期设想的AGI,并可能引发软件工程领域的工业革命 [34]。蒂姆·德特默斯则认为,当前关于AGI的狂热预测源于特定社群的信息茧房,缺乏对计算现实的考量 [36] 算力增长的潜力与极限 - **算力极限论**:蒂姆·德特默斯认为“计算是物理的”,内存迁移、带宽、延迟及冯·诺依曼瓶颈决定了算力不可能无限扩张,指数增长终将放缓,Scaling Law也不例外 [10][37]。他指出,从DRAM到HBM等硬件创新已接近物理极限,量化技术(如4位精度)也已发展至尽头,功能和硬件潜力均已被充分挖掘 [40][42][43] - **算力潜力论**:丹·傅认为当前谈“算力见顶”为时过早,现实系统中算力被严重低估和浪费,大量性能消耗在内核调度与系统开销上 [12]。他指出,当前评测的“最强模型”多基于一两年旧的算力集群训练,未能代表当下硬件的真实上限 [12][49]。通过新一代硬件(性能提升约2–3倍)、系统与工程优化(算力利用率提升约3倍)及更大规模集群(规模效应约10倍)三者叠加,理论上可用算力有接近90倍的提升空间 [13][18][46] 智能体(Agent)的发展与应用 - **拐点时刻**:丹·傅指出,2025年6月是Agent发展的关键拐点,当时代码智能体成功攻克了被视为编程领域终极难题之一的“GPU内核编程”,使其个人工作效率提升了5倍,其团队也能快速完成原本需耗时数月的复杂系统开发 [17][20][62][63] - **高度通用性**:蒂姆·德特默斯认为代码Agent本身就是高度通用的Agent,因为代码几乎可以描述和解决所有数字化问题,并断言超过90%的代码和文本本应由Agent生成 [20][66] - **应用与管理范式**:双方将Agent比作“需要精细化管理的实习生”,人类需提供明确背景、拆解任务并设定约束,而将注意力聚焦在方向把控与结果校验上 [21]。丹·傅强调,专业知识越深厚的专家,Agent能为其创造的效率增量就越显著 [21][74] - **必备技能**:蒂姆·德特默斯强调“要么善用Agent,要么被时代淘汰”,使用Agent并有效检查、编辑其输出(约10%的工作)将成为未来核心技能,能带来巨大的生产效率提升 [20][67][68] 人工智能行业未来趋势预判 - **小模型与开源模型**:双方均认为小模型将成为行业新热点,针对特定领域数据训练的小模型部署难度低、性能出色,将更具吸引力 [23][81]。开源模型(如GLM-4.7)的能力将进一步飞跃,并开始媲美最优秀的前沿模型 [23][26][83] - **硬件多元化与专业化**:硬件赛道将走向多元化发展,训练与推理环节的专业化分化会加剧 [23][24]。推理芯片将更侧重在手机、笔记本电脑等终端设备本地运行 [61] - **架构创新**:Transformer架构独霸天下的时代将落幕,状态空间模型(SSM)、线性注意力及各类混合架构等新架构将登上舞台 [25][84][86]。中国团队在架构创新上更敢于探索多种可能性,通过架构创新或极致性能让开源模型脱颖而出 [26][85] - **多模态与端侧AI**:多模态领域(如视频生成)及端侧AI(在笔记本电脑、手机等设备上运行的AI)预计将有进一步发展 [23][83] - **中美发展路径差异**:相比美国“先做出最强模型,再等待应用出现”的思路,中国模型团队的发展思维更务实,更关注模型能否真正落地并在现实场景中产生价值 [26][55]