Workflow
AI Agent
icon
搜索文档
Clawdbot一夜爆红,首个0员工公司诞生!7×24h永不下班
创业邦· 2026-01-27 11:11
Clawdbot产品核心定位与市场热度 - 产品被描述为“长了手的Claude”,是一个AGI雏形下的AI智能体,核心目标是将顶尖LLM“大脑”塞进每个人的手机里,相当于为全球80亿人提供一位7x24小时工作的“超级智能AI员工”[3][4] - 产品在全网热度持续攀升,搜索量一度赶超Claude Code,引发硅谷广泛关注,甚至有用户为部署该产品而购买Mac mini[1][3][6] - 产品在GitHub上迅速走红,短短24小时内星标数狂飙至20.7k(前一天仅约一半),并收到了262个Issues和89个PR[10] Clawdbot核心功能与技术架构 - 产品是一个能跑在个人电脑本地(Mac、Windows、Linux)的AI智能体,能直接访问文件、应用和数据,并通过手机APP(如WhatsApp、Telegram、iMessage)进行随时随地控制[20][24] - 产品具备“自我进化”能力,可以自主开发新“Skills”,即自己写代码、自己安装并开始执行任务[20] - 技术架构基于中央网关(Gateway),接收来自各聊天平台的指令,分发给Claude等大模型API,最终在本地电脑上执行具体命令,网关是连接指令与电脑能力的桥梁[21][24] Clawdbot应用场景与效率提升 - 产品能通杀所有应用,可自主完成安装软件、跑脚本、管理文件、监控网页、发送邮件等任务,仅需通过手机发送简单文本指令[16][20] - 实测显示产品能显著提升效率:10秒完成手动整理电子文件、将阅读10篇AI安全文章的时间从1小时浓缩至5分钟、2分钟找出20个PDF中的所有邮箱地址[26] - 开发者展示了与产品深度协作的工作流,涵盖记录问题、生成报告、启动代理修复问题、创建代码合并请求(PR)及后续测试等完整开发环节[34][35][36][37][39] 行业影响与生态发展 - 产品的出现被形容为AI浪潮“一天就顶十年”,标志着硅谷正经历从“对话框”向“执行器”的暴力进化,可能彻底重构人类生产力逻辑[28][63] - 出现了基于该产品的“零员工公司”概念,由AI担任CEO和首席工程师,产品被视为公司基石,具备持久自主性、多智能体克隆能力,并保证本地控制与隐私[48][49][51] - 开发者生态活跃,产品已被部署在AWS免费套餐(5分钟内)、智能手表甚至AI眼镜上,用于远程操控、合并PR、修复bug以及实时价格比较等创新场景[30][31][41][42][43][45]
AI-Agent推动CPU重定价-关注Infra与应用层变化
2026-01-26 23:54
涉及的行业与公司 * **行业**:人工智能应用、互联网广告、恒生科技(消费互联网、算力、软件应用、智能驾驶、游戏)、存储、国产算力、芯片封测/先进封装、CPU * **公司**: * **AI应用/广告代理**:省广集团、蓝色光标、引力传媒、浙文传媒、利欧股份、思美传媒[2] * **AI应用泛化**:博纳影业、昆仑万维、大麦娱乐、阅文集团[1][2][3] * **恒生科技-消费互联网**:阿里巴巴、京东健康、贝壳[1][4] * **恒生科技-算力**:中芯国际、华虹半导体、天智芯、ASMPT[1][4] * **恒生科技-软件应用**:快手、金蝶国际、哔哩哔哩[1][4] * **恒生科技-智能驾驶**:小马智行、文远知行、小鹏汽车、地平线机器人[1][4] * **恒生科技-游戏**:三七互娱、腾讯、心动公司[1][4] * **存储-设计**:军政、兆易创新、璞冉科技[1][6] * **存储-设备**:中微公司、拓荆科技[1][6] * **存储-模组**:未具名,但提及受益于涨价周期[6] * **国产算力-CSP供应链**:芯源股份、伟测科技、华丰科技[2][7][8] * **封测/先进封装**:长电科技、通富微电、盛合晶微、科华微电子、佰维存储[2][9][13][14] * **CPU**:AMD、英特尔、海光信息[2][15][17] 核心观点与论据 * **AI应用行情持续,但需精选标的** * A股传媒板块的AI应用行情产业趋势强劲,确定性较强,但整体缺乏EPS支撑,对选股和择时要求更高[2] * 建议关注与国内互联网大厂或头部模型关联度高的标的,尤其是互联网大厂广告代理商链条,这些公司有望承接大模型产品广告份额[1][2] * 同时关注AI应用泛化领域的公司[1][2][3] * **存储行业处于多重周期叠加的涨价行情** * 存储行业处于技术升级周期、两存上市融资周期及AI驱动价格周期叠加的大行情阶段[4] * NAND合约价格超预期跳涨,2026年一季度涨幅达到100%以上,这是2026年内第二次上调预期[1][4][5] * DRAM合约价格一季度涨幅从55%-60%上调至70%[1][5] * 存储需求(特别是冷数据存储需求)显著增加,而全球NAND资本开支增速保持在10%以内,供给侧相对刚性,预计未来NAND价格仍有超预期上涨可能[1][5] * 投资机会集中在:1) 下游涨价而上游成本稳定的设计公司;2) 含存量高的设备公司;3) 受益于涨价周期持续性的模组公司(周期可能从2025年第四季度延续到2026年第三季度)[1][6] * **国产算力是确定性趋势,关注CSP厂商供应链** * 2026年国产算力是确定性趋势,AI应用将带动国产算力情绪提升[2][7] * 当前光算力出钱最多的是几个CSP(云服务提供商)厂商,因此重点关注其供应链[2][7] * 首推芯源股份(满足CSP自研ASIC芯片需求),同时关注伟测科技(与国内多家GPU公司合作)、华丰科技(与浪潮等客户深度合作)[2][7][8] * **封测产业链机遇集中在先进封装与存储涨价** * 封测产业链的重要机遇逻辑:一是COWS先进封装;二是存储涨价[2][9] * 大陆封测企业可能逐步跟随台湾企业进行涨价,从二三线客户开始,再扩展到头部客户[2][9] * 重点推荐具备先进封装能力且产能布局成熟的长电科技和通富微电[2][9] * 国产先进封装行业将在未来几年迎来快速发展,驱动因素包括:AI云端向终端渗透、场景落地叠加存储超级周期、海外产能紧张导致订单向国内转移[10] * 国内封测产能利用率显著爬升,2025年部分企业达90%,预计2026年更饱满;同时台厂可能出现双位数涨价信号,国内封测价格上涨趋势明显[10] * 2026年是国内先进封装板块扩产、提价、平台提升和升级的集中兑现期,产业链投资机会将在2026年和2027年集中体现[13] * **AI Agent沙箱化将催生新的CPU服务器需求** * AI Agent沙箱化技术逐步应用(如Meta收购Miner,国内阿里云、腾讯云发布产品),为每个Agent分配独立运行环境[15] * 沙箱化需要提供隔离层、编排管理等功能,这些属于CPU侧的软件工作,因此将带来额外的CPU服务器需求[2][15] * 这对AMD、英特尔以及国内厂商如海光信息等产生积极影响,这是一个长变量[2][15][17] * **恒生科技板块各子板块存在结构性机会** * **消费互联网**:处于震荡状态,预计春节后有机会;推荐阿里巴巴(AI芯片子公司平头哥上市带来估值重估)、京东健康(业绩确定性强)、贝壳(全年机会较好)[4] * **算力**:国产算力芯片表现不错,算力整体供不应求[4] * **软件应用**:港股AI应用小幅震荡,但C端产业变化加速;建议聚焦流量入口和生态闭环主线标的[4] * **智能驾驶**:特斯拉在美国推进无监督运营消息释放后,板块获得正反馈[4] * **游戏**:推荐三七互娱(新产品周期良好)、腾讯及心动公司(心动小镇国际版下载量突破1,000万)[4] 其他重要内容 * **封测行业具体公司进展**: * 长电科技在高性能计算、存储终端及汽车电子领域有显著增长,其子公司JCAP专注于高密度先进封装,并计划加大资本开支投入[9] * 通富微电与海外大客户长期合作,在2.5D封装产品研发方面取得进展,冰城基地已开始贡献营收[9] * 佰维存储具备存储行业稀缺的先进封装能力,覆盖NAND和DRAM,具备设计加封测一体化能力;2026年是其迅速切入先进封装赛道的关键年份[14] * **芯片封装产能与市场需求**: * 以永锡电子为例,其先进封装能力快速布局,2025年营收逐季环比增长,海外头部客户突破显著;2026年核心客户群预计稳健增长[12] * 公司先进封装业务占比从2021年的9%提升到现在的20%左右,远期目标继续大幅提升[12] * **存储与封测板块市场情绪观察**: * 存储板块因NAND大幅涨价,情绪会有大幅强化[16] * 芯片封测方面:明线是涨价(大陆头部大客户尚未涨,小客户已开始涨);暗线是升兴微科创板IPO审核进度,牵动市场对COMS技术路径各厂商布局节奏的关注[16] * **CPU板块投资逻辑**: * A股CPU投资模式喜欢映射美股(如Intel和AMD)[17] * 虽然Intel对未来业绩预期指引不强,但AI Agent沙箱化带来的额外CPU服务器需求这条线情绪仍然存在,需观察催化因素[17]
CPU逻辑梳理
傅里叶的猫· 2026-01-26 22:42
文章核心观点 - 近期CPU市场受到关注,主要受AI发展驱动,特别是Agentic AI带来了增量需求,同时供给侧存在产能限制,共同推动了CPU涨价 [1][2][3] - 此次CPU涨价逻辑主要适用于AI场景,尤其是服务器端CPU,而主要用于信创的国产CPU与此轮涨价的直接关联性较弱 [2][4] - CPU产业格局正在动态演变,x86架构仍主导服务器和桌面市场,但AMD份额持续提升,ARM等非x86架构也在加速渗透 [8][9] CPU涨价逻辑更新 - **需求驱动因素**:AI发展是CPU需求的核心增量来源 [2] - **性能增量需求**:如DeepSeek的Engram等技术,通过将大量静态嵌入表从HBM转移到DRAM,可能提升对柜内/服务器内部CPU的性能要求,但不会直接增加CPU个数 [2] - **个数增量需求**:目前对CPU增量需求最大的是Agentic AI,其需要的是柜外CPU,这部分需求是增量的,且不受GPU配比关系影响 [2] - **供给限制因素**:产能紧张制约CPU供应 [2] - 台积电先进制程产能优先保障AI芯片,CPU主要使用的次高端制程产能分配受限 [2] - CPU生产所需的通用半导体设备(如检测设备)和耗材(如BT载板)供应紧张,间接影响CPU厂商的产能释放 [2] - **市场现状观察**:近期服务器端CPU出现涨价,市场分析需求端主要来自AI Agent,但同时4090/5090和Hopper等GPU也非常紧缺,具体需求爆发原因尚待确认 [3] - **涨价持续性**:目前服务器CPU虽有涨价,但拿货较为容易,未出现缺货现象,涨价能持续多久尚无法详细测算 [15] 国产CPU与涨价逻辑的关联 - 国产CPU若主要用于信创市场,而非AI场景,则与当前这波由AI驱动的CPU涨价逻辑不完全符合 [4] - 信创市场本身规模足够大,因此无需担心信创CPU的业绩表现 [4] CPU产业科普:分类与格局 - **按指令集分类**:CPU主要可分为复杂指令集(CISC)和精简指令集(RISC)两大类 [5] - **CISC(以X86为代表)**:指令系统庞大复杂,兼容性强,配套软件及开发工具成熟,在服务器、工作站和个人计算机等领域占据优势 [5][6] - **RISC**:包括ARM、MIPS、Alpha等架构,指令长度固定,设计相对简单 [5][6] - **ARM架构**:具有低功耗、小体积特点,在智能手机、平板电脑等移动终端市场占据主导 [5][6] - **MIPS架构**:设计简单、功耗较低,在嵌入式应用场景具有优势 [5][6] - **Alpha架构**:结构简单,易于实现超标量,适用于高主频计算 [6] - **按应用场景分类**:可分为服务器CPU、工作站CPU、桌面级CPU、移动端CPU和嵌入式CPU,各自在核心数、互联架构、可靠性、功耗及内存支持等方面有不同特征 [7] - **全球市场格局**:服务器与桌面级CPU市场仍由x86架构主导,但竞争激烈 [8][9] - 预计2025年,x86架构在全球服务器市场份额达70.35% [8] - 英特尔份额受到AMD侵蚀:在服务器CPU市场,英特尔份额从2018年的98%以上降至预计2025年的55.2%,而AMD份额预计将升至36.1% [8] - 在桌面CPU市场,2025年第三季度AMD在x86市场的份额达33.6%,环比提升1.4个百分点 [8] - 非x86架构加速突破:预计2025年ARM架构在服务器CPU市场的营收份额有望达到8.7% [9] - **国内市场格局**:英特尔与AMD合计占据约80%市场份额,处于主导地位 [9] - 华为、龙芯中科、海光信息和兆芯等国产CPU制造商正积极布局,逐步打破垄断 [9] - **信创市场格局**:第一梯队为华为鲲鹏和海光,市场份额分别为26.15%和20.24%,产品性能领先且单价较高;龙芯中科和飞腾在党政信创市场订单量较大,份额分别为3.88%和6.43% [13] - **主要国产CPU厂商产品参数**:列举了兆芯、华为、飞腾、龙芯中科、申威等厂商的部分CPU产品在指令集、核心数、频率、缓存、内存支持等方面的关键参数 [12]
Claude统治一切,吞下这颗红药丸,焊工也是顶尖程序员
36氪· 2026-01-26 20:21
核心观点 - 一种被称为“Claude-pilled”的现象正在硅谷蔓延,意味着用户一旦体验过Anthropic公司Claude AI(特别是Claude Code)的强大能力,将彻底改变工作方式,无法回到过去 [1][7] - AI编程工具正在彻底打破技术壁垒,使非程序员也能快速构建复杂应用,程序员的传统技术护城河正在崩塌 [10][16][46] - 软件开发范式正经历根本性转变,从传统SaaS的“人+应用”模式转向“AI Agent+API”模式,这将对整个软件行业产生深远影响 [29][33][34] 现象与案例 - 一位开发者使用Claude Code后,将原计划耗时6个月的移动应用开发项目缩短至一个周末完成,其中Claude Code负责编写约90%的业务逻辑 [7][9] - 一位全职爸爸用自然语言向Claude Code描述需求,仅用1小时就开发出一款可通过摄像头扫描自动识别女儿衣物的“洗衣分拣App” [12][13] - 一位自称“勉强高中毕业”的焊工,通过向Claude Code描述需求,在几小时内获得了一套完整的业务管理系统,用于处理估价单、订单跟踪和合同管理,而他一行代码都未写 [14] - 一位金融学教授使用Claude Code,在2小时内创建了一个功能完整的股票交易模拟教学平台 [15] - 一位检察官开发了一款让受害者一键报警并自动录音取证的紧急求助App [16] 行业影响与趋势 - 根据IDC预测,到2026年,AI Agent将作为“数字员工”嵌入近80%的企业工作场所应用中 [36] - 高盛研究报告指出,AI模型正在成为“操作系统”,能独立访问各种工具完成任务,彻底改写传统软件栈 [35] - 贝恩咨询报告指出,软件行业正从“人类+应用程序”模式转向“AI Agent+API”模式 [33] - AI Agent对现有SaaS工具的冲击可分为四种模式:增强(Enhance)、压缩(Compress)、超越(Outshine)、吞噬(Cannibalize) [38] - 传统SaaS模式(卖软件许可证和订阅费)正受到AI Agent的直接冲击,未来可能退化为“数据仓库”和“记录系统”,用户界面将被AI Agent的对话式交互取代 [32][39] - Klarna的AI助手在上线第一个月处理了230万次客户对话,相当于700名全职客服的工作量,并大幅缩短问题解决时间 [37] 对开发者的影响 - 斯坦福大学研究显示,AI编程工具对初级开发者冲击最为严重,22-25岁的早期工程师就业率已经出现下降,因为AI擅长自动化“规范化知识”任务 [40][41] - 能够驾驭AI的高级工程师需求增加,未来软件工程师的角色将转变为“AI战略家和系统架构师”,负责监督、验证和编排AI的输出 [42][43] - 掌握AI编程技能的工程师已获得可量化的薪资溢价,而仍用传统方式手写代码的人正面临被市场抛弃的风险 [44][45] - 开发者过度依赖AI工具可能导致“AI依赖症”,表现为交付速度提升但学习速度下降,对代码背后的逻辑、架构和风险理解减少 [16][17] - 社区出现如“CLAUDE.md”的实践,要求AI不仅交付代码还要解释代码,以此积累知识文档,将AI助手变为私人导师,实践者学习速度可比同行快3倍以上 [17][18][19] 市场与数据表现 - Anthropic推出Claude Cowork功能后,根据Similarweb数据,代码相关搜索需求激增、网站流量和应用下载量大幅上升、开发者社区讨论热度飙升 [20][22] - Claude的日活跃用户(DAU)一直在增长 [25] - Claude Code的订阅费用仅为每月20至200美元 [12]
比Manus更懂融资的Agent公司,也被硅谷大厂盯上了
雷峰网· 2026-01-26 19:17
文章核心观点 - 文章对比分析了AI Agent赛道两家明星公司Genspark与Manus(及其母公司蝴蝶效应)的发展路径、战略差异与竞争格局,认为Genspark凭借其原生全球化定位、精准的营销与产品策略以及融合中美优势的团队,在资本和增长上取得了显著成功,并探讨了Agent创业公司最终可能被大厂收购的行业趋势 [2][9][18][27] 硅谷原生的华人明星创企 - Genspark由百度前副总裁景鲲于2024年6月创立,主攻AI搜索赛道,其创始团队背景显赫,包括前微软、谷歌、百度高管 [4] - 公司成立初期即获得6000万美元种子轮融资,估值达2.6亿美元,而同期Manus的母公司蝴蝶效应创立一年半估值仅6000万美元 [4] - Genspark是一家扎根硅谷的国际化团队,而蝴蝶效应是武汉原生的中国团队,两者创立背景差异显著 [5] - MainFunc(Genspark母公司)融资节奏极快,2024年中种子轮估值约6000万美元,2025年2月A轮融资后估值跃升至5.3亿美元 [6] - 对比之下,蝴蝶效应在2024年11月B轮融资时估值不到1亿美元 [7] 探寻与摸索:从AI搜索到Agent - 2025年3月6日Manus Agent发布,创造了通用型Agent新赛道并成为现象级产品,使行业共识转向Agent才是未来 [9][11] - 受此影响,原AI搜索明星公司Perplexity被市场遗忘,Genspark迅速调整方向,于2025年4月2日上线核心产品Super Agent [12][13] - Manus发布后人气极高,月活迅速突破2000万,2025年3月月访问量达2376万人次 [14][15] - 2025年6月,蝴蝶效应选择裁撤中国员工、清空中国社媒,被解读为全面搬迁至海外,而Genspark作为原生全球化公司无此忧虑 [16] - 原生全球化公司在资本市场和全球人才吸纳上更具竞争力,已成为行业趋势,除Genspark外,Fellou AI、Sharpa等公司也选择类似路径 [18][20] - 2025年11月,Genspark通过B轮融资估值已达12.5亿美元 [17] Agent的较量之路 - **营销模式**:Genspark与Manus均采用制造话题与传播事件的营销模式,引发AI网红共谋式传播,Genspark坚持每周发布“全球首项”级别声明以保持新鲜感与关注度 [22] - **产品迭代与用户留存**:Genspark聚焦办公自动化、数据分析和文件管理等企业刚需场景,付费意愿高 [23] - Super Agent产品几乎保持每周更新节奏,如AI Slides 2.0、多智能体调度系统等,并持续推出新工具,使用户因不断有新功能且价格不贵而愿意续费 [23][24] - 据投资人数据,Genspark退订率仅为Manus的1/3,其付费用户留存率维持在88%-92%的高水准 [23][24] - 从单用户收入看,Manus能在一个月活用户身上赚约1.5元,Genspark能赚约0.8元 [23] - **团队构成**:Genspark团队融合了来自中国互联网大厂(如字节、百度)和硅谷AI领域的从业者,是以中国人为首的全球化团队,实现了“中国的工程密度”与“硅谷产品节奏”的结合 [25] 一家Agent公司的终局:独立还是被收购? - 在Manus被Meta收购后,有传闻称Genspark也在与硅谷大厂接触 [27] - 行业认知在Agent出现后发生转变,未来的“操作系统”可能是能够连接工具、完成任务并与用户直接交互的Agent,而非大模型本身 [27] - 在通用级市场,打造一个成功的闭源Agent需要海量资源,这远非一家创业公司所能承受,而当前Agent缺乏上游基模壁垒,仅靠应用层产品形态和用户体验构建的壁垒非常脆弱 [27] - 因此,Agent领域未来的终极竞争可能发生在Google、Microsoft、字节、腾讯等顶级大厂之间,创业公司很可能最终被收购 [27]
巨头扎堆涌入,漫剧迎来“黄金窗口期”
摩尔投研精选· 2026-01-26 18:35
ETF流出对行情影响分析 - 近期宽基ETF出现明显资金流出,近2周累计流出约6000亿元[1] - 此次ETF大幅流出的核心导火索被认为是成交额的异常放量,单日成交额最高水平曾逼近4万亿元[1] - 若无ETF资金流出对冲,成交量的无序放大可能吸引大量场外投机资金入场,形成类似2007年及2015年的短期脉冲式行情,并在放量后终结[1] - 当前ETF资金大幅流出并不必然意味着行情终结,成交额回归平稳后,市场可能转向类似2020-2021年的可持续慢牛行情[1] - 股市波动率降低后,更契合追求“稳健收益”的银行理财资金和保险资金的偏好[1] 漫剧行业迎来黄金窗口期 - 短剧市场规模已近千亿元,验证了碎片化娱乐的商业潜力,而漫剧(动态漫)正借助AI技术红利成为新的增长极[2] - 2025年上半年,抖音端漫剧日均GMV突破千万元,同比增长1532%,投流日耗突破400万元,同比增长568%,标志着赛道商业化变现闭环已跑通[2] - 2026年被预计为漫剧发展的“黄金窗口期”,其市场规模有望突破220亿元[2] - 行业增长逻辑在于“供需共振”:需求端,用户规模与付费意愿呈井喷态势,2025年8月抖音端付费自然流已超1000万元/天;供给端,AI Agent实现了从文本到成片的端到端自动化,解决了产能瓶颈[2] - 行业正处于从“概念验证”迈向“规模化业绩释放”的关键节点,多模态技术推动了视觉表现力的跨越式提升[2] - 长期来看,基于“文本-3D时空”的动态漫Agent有望超越内容工具范畴,向游戏开发与建筑设计领域外溢,演进为“生成式虚拟世界基建”平台[2]
AI的Memory时刻5:AINAND供需紧张,涨价仍有弹性
广发证券· 2026-01-26 17:50
行业投资评级 * 报告标题明确显示对“AI NAND”行业的投资评级为“供需紧张,涨价仍有弹性”,这反映了对行业基本面向好的积极判断 [1] 报告核心观点 * **核心驱动因素**:AI Agent等应用通过检索增强生成(RAG)技术,需要频繁存取庞大的矢量数据库,显著推升对高IOPS企业级SSD的需求,AI服务器正成为NAND需求增速最大的下游应用 [3] * **需求侧量化**:根据TrendForce数据,预计2026年NAND需求增速为21% [3]。英伟达AI推理上下文存储平台推动单GPU对应的eSSD容量显著增长,测算显示H100需求为4TB,B100/200为8TB,乐观情况下Rubin可达24TB [3]。若VR200 GPU出货量达1400万颗,对应NAND容量需求约336EB [3][24] * **供给侧约束**:海外原厂资本支出高度集中于HBM和先进制程,对NAND投入审慎。NAND Flash资本支出预计从2025年的211亿美元小幅增长至2026年的222亿美元,年增仅约5% [3]。三星、SK海力士均优先保障HBM产能并缩减NAND投资,美光在NAND领域投资也维持在较低水平 [3]。同时,QLC产线改造导致良率阶段性偏低,进一步损耗有效产能,加剧供需紧张 [3] * **价格趋势判断**:预计NAND Flash合约价将迎来全面显著上行,2026年第一季度涨幅或达55%-60%,并有望延续至年底;全年合约价预计上涨105%-110%,带动2026年NAND产业产值同比增速提升至约112% [3][28] * **产业价值重估**:AI记忆的价值正从“费用项”转变为“资产项”,相关上游基础设施的价值量和重要性将不断提升 [3][30] 根据相关目录分别总结 一、单 GPU 对应的 NAND 存储容量不断提升 * AI服务器部署加快驱动NAND需求,单GPU搭载的SSD容量随代际升级而大幅提升,从H100的4TB增至B100/200的8TB,乐观预测下Rubin平台可达24TB [3][11][22] * 根据敏感性测算,在不同GPU代际与出货量假设下,若VR200出货量达1400万颗,将对应约336EB的NAND容量需求 [3][24] 二、新增产能释放节奏偏慢,短期难以匹配需求增长 * 主要海外原厂(三星、SK海力士、美光)的新建晶圆厂产能规划优先满足HBM和先进DRAM的生产需求,对NAND的资本支出增长有限且投入审慎 [3][25][26] * 产能转移与升级过程中的损耗(如QLC产线改造良率问题)进一步限制了NAND的有效供给,加剧了供需紧张格局 [3] 三、投资建议 * 报告认为当前处于“AI的Memory时刻”,AI记忆作为扩展模型能力边界的关键底层能力,将促进AI Agent等应用落地 [3][30] * 建议关注从AI记忆价值重估中核心受益的产业链标的 [3][30] * 报告列出了包括**澜起科技、聚辰股份、兆易创新、中微公司、拓荆科技、北方华创**在内的多家公司,并均给予“买入”评级,同时列出了各自的盈利预测与估值指标 [4]
商汤官宣旗下AI Agent“咔皮记账”免费 未来将推“AI Pro”模式
凤凰网· 2026-01-26 16:16
公司战略与产品调整 - 商汤科技旗下AI Agent应用“咔皮记账”宣布其记账核心功能将永久免费开放[1] - 包括自动记账、共享账本、预算规划、多账户管理等在内的30项原需付费功能现已全部转为免费[1] - 用户可无门槛使用该应用的记账功能[1] 产品功能与技术基础 - 该应用基于商汤“日日新”大模型的多模态理解能力[1] - 支持通过拍摄小票、语音输入或轻敲手机等方式自动识别消费信息并完成记账分类[1] - 实现从手动录入到自然交互的转变[1] 未来发展规划 - 官方透露未来将推出“AI Pro”模式[1] - 将在财务管理基础上进一步为用户提供个性化生活规划与建议[1]
Token洪流的转向:当AI Agent成为Token消耗的主宰,什么样的推理服务基础设施才是刚需
AI前线· 2026-01-26 15:19
文章核心观点 - AI Agent正成为大模型Token消耗的主体,推动推理服务基础设施发生从“面向人类”到“面向智能体”的范式跃迁,其负载特征、请求模式和成本考量发生根本性变化 [2] - 为应对AI Agent时代的新需求,由多家产学研机构联合打造的“AI Serving Stack”开源项目,通过模块化、标准化的架构设计,旨在填补生产级LLM推理编排的空白,解决推理基础设施的“最后一公里”问题 [16][17] AI Agent时代的范式转变 - **从“人机对话”到“Agent协作”**:AI Agent的请求是持续、高频、结构化的,可能触发多个子Agent形成复杂计算图,要求基础设施能处理毫秒级的级联调用 [4] - **从“单次响应”到“状态化会话”**:AI Agent执行持续任务,会话包含长达数万轮的上下文,导致KVCache需要从GPU临时缓存转变为需持久化、可迁移的“数字记忆体” [5] - **从“规模经济”到“效率经济”**:当Token消耗增长10倍、100倍时,成本成为核心考量,推理基础设施需实现“超卖”与“混部”,并像“数字电网”一样动态调度算力以应对潮汐效应 [6][7] AI Agent对推理基础设施的核心需求 - **需求一:拓扑感知的角色编排**:需将推理服务拆解为Prefill、Decode、KVCache等独立角色,实现独立调度与弹性伸缩,以解决资源错配问题 [9] - **需求二:KVCache为中心的架构**:需实现跨实例、跨节点甚至跨集群的KVCache共享与透明迁移,以支持Agent的长上下文特性并避免重新计算 [10] - **需求三:智能差异化调度**:调度器需理解请求语义,实现KVCache感知、优先级队列等差异化调度,以满足不同Agent任务对SLO(如低TTFT、高吞吐量)的迥异需求 [11] - **需求四:生产级弹性效率**:需将弹性从“分钟级”压缩到“秒级”,并配合反碎片化、潮汐混部等手段,将GPU利用率从30%的低位提升至70%以上 [12] - **需求五:全链路可观测与自优化**:需提供从Token生成到工具调用的全链路追踪,并能基于历史数据自动优化配置,使决策从“人工调参”转向“数据驱动” [13] AI Serving Stack的架构与核心能力 - **模块化设计**:采用模块化设计,将部署管理、智能路由、弹性伸缩、深度可观测等能力解耦为独立组件,用户可按需灵活组装 [16] - **RoleBasedGroup (RBG)**:作为LLM推理的Kubernetes标准API,将推理服务定义为“拓扑化、有状态、可协同的角色有机体”,实现从离散Deployment到拓扑有机体的范式跃迁 [18][19] - **RBG的SCOPE五大核心能力**:基于RBG实现角色原子化、协同策略化、管理统一化、配置智能化,新模型运维耗时从天级缩短至分钟级,支撑PD分离架构实现资源成本节省超50% [19][21] - **智能调度网关 (SMG)**:专为LLM负载设计,实现推理负载感知的差异化调度,将RBG的编排能力转化为业务级性能优势 [22] AI Serving Stack的性能突破与效益 - **以KVCache为中心的PD分离架构**:深度融合Mooncake项目,通过计算与存储解耦及KVCache池化共享,在长文本阅读等多轮对话场景中,使推理吞吐量提升6倍,响应时间降低69.1%,KVCache命中率最高达90% [24][27] - **KVCache感知调度**:基准测试显示,全局近似模式下可实现TTFT降低50%以上、吞吐量翻番,分离感知调度下实现TTFT降低20%以上 [26] - **资源效率与成本节约**:动态P/D比例调整使GPU利用率稳定在65%-75%,配合潮汐混部与反碎片化优化,用户GPU成本减少30%-40%,年度节约近千万元 [29] - **工程效率提升**:一键部署时间<5分钟,发布失败率从23%降至5%,MTTR从数十分钟级降至2分钟内,服务升级中断时间从15分钟缩短至10秒 [29] AI Serving Stack的生态与行业影响 - **全栈开源与多框架兼容**:秉持100%开源架构,支持SGLang、vLLM、TensorRT-LLM等国内外主流推理引擎,并已完成多个国产算力适配,避免商业锁定 [30] - **生态整合效益**:与vLLM/SGLang等主流框架深度适配,TPOT下降20%,推理成本低至0.2美元/每百万Token [31] - **产学研协同典范**:由清华大学、南京大学、阿里云、小红书等多家机构联合打造与维护,采用开放治理模式,快速迭代(每两个月发布一个Minor版本),有效弥合AI基础设施的“配置鸿沟” [32][35] - **行业认可**:获评“2025年度AI工程与部署卓越奖”,标志着开源协作模式在生产级AI基础设施领域的潜力 [32]
广发证券:AI agent对CPU需求增加 建议关注产业链核心受益标的
智通财经网· 2026-01-26 11:53
AI记忆技术驱动基础设施价值提升 - AI记忆正从“费用项”转变为“资产项”,成为支撑AI应用连续性与个性化的底层能力,有望促进AIAgent等应用加速落地,相关上游基础设施价值量与重要性将不断提升 [1] AI Agent发展推升CPU需求 - AI Agent时代,单个用户可同时调用多类Agent驱动服务器端应用,整体调用频次与覆盖面显著高于人类使用,带来更多系统请求、数据搬运与控制流开销,推高CPU负载 [1] - AI Agent的计算流程演化为“感知-规划-工具调用-再推理”的闭环,工具调用、任务调度、信息检索等关键环节均依赖CPU完成,随着Agent渗透率与工具调用密度提升,CPU作为中间调度枢纽的占用线性放大 [1] - 为降低误操作风险,Agent运行时普遍采用沙箱/虚拟化隔离,带来额外进程与内核开销,并提升IO带宽与本地SSD缓存需求,进一步推高CPU/内存/存储配置 [1] AI集群中CPU配比持续提升 - 根据semianalysis报告,目前每个GPU兆瓦(MW)对应的CPU配比低于10%,预计到2026年第二季度,该比例将上升至15% [2] - 在300MW GPU建筑功率下,假设CPU配比率分别为16%、25%,则单GPU对应的额外通用服务器CPU数量分别为0.29、0.45;单GPU对应的总CPU数量分别为0.79、0.95 [2] - 假设全球B200、ASIC出货量分别为800万颗、700万颗,则总AI集群X86 CPU的数量分别为610万颗、855万颗,AI CPU增量需求分别为25%、36% [2] 内存与接口芯片市场空间扩大 - AI服务器为满足更高容量与带宽需求,内存配置趋向全插(2DPC),而通用服务器多以半插(1DPC)为主,因此DIMM条需求增长可表述为:DIMM条增长=CPU量增长×2 [3] - X86-CPU配置的内存形态有望从传统RDIMM逐步向MRDIMM方案演进,需引入更复杂的接口芯片,推动配套芯片平均销售价格(ASP)提升 [3] - 内存插满率提升叠加MRDIMM渗透,共同打开内存条与接口芯片的市场空间 [3]