Workflow
Agent
icon
搜索文档
2026,进入AI记忆元年
36氪· 2026-01-27 18:16
行业趋势:AI竞赛进入以记忆为核心的下半场 - 自2023年年中起,SOTA模型的迭代周期被快速压缩至35天,曾经的SOTA模型在短短5个月就可能跌出Top5,7个月后连Top10都难以进入[3] - 模型技术进步进入瓶颈期,而过去两年多围绕AI记忆的技术和产品(如向量数据库、记忆框架)则呈现“你方唱罢我登场”的热闹景象[4] - 市场正诞生出越来越多跑通PMF的细分爆款,如代码补全、情感陪伴、智能客服等“模型+记忆”的商业模式[4] - 大模型的叙事正从以scaling law为核心的参数闪电战,切换至以记忆为主导的马拉松式下半场,记忆能力已成为拉开不同模型和Agent表现的核心来源[33] 对AI记忆的行业误解与红熊AI的解决方案 误解一:记忆等于RAG加长上下文 - 2023-2024年AI基础设施爆发期,RAG技术一度成为AI记忆的代名词,行业普遍认为叠加长上下文窗口和检索优化算法就能解决AI健忘问题[8] - 红熊AI创始人指出,传统RAG在落地中暴露出短板,例如在法律场景中,语义相似但适用范围天差地别的法条细节会被整体相似性掩盖,且无法遵循法律体系的优先适用规则[9] - 在客服AI场景中,RAG方案会导致每天重复回答相同问题时产生不必要的检索成本,并且在用户跨会话咨询时出现记忆丢失[10] - 基于语义检索的RAG方案只能解决不到60%的真实需求,其本质是被动的检索工具,无法解决“记不住”的核心矛盾,且通常只能以周为单位做离线数据更新,无法实时写入[10] - 红熊AI借鉴人脑记忆逻辑,打造了完整的记忆科学体系,将AI记忆拆解为显性记忆、隐性记忆、联想记忆以及动态进化记忆,不同层之间通过智能算法动态流转[12] - 该体系为记忆加入了情感加权、智能遗忘、跨智能体协同等能力,从底层重构了AI记忆的逻辑,解决了存储数据量爆炸带来的成本飙升和上下文过长问题[12] 误解二:事实检索重于一切 - 红熊AI团队曾将准确率当作记忆系统的唯一KPI,这在金融风控、技术运维等事实优先的场景中运行顺畅[15] - 但在情感咨询等场景中,用户需要的是被理解、被安抚、被肯定,而非精准的事实答案[17] - 这倒逼红熊AI攻克了记忆系统的情感难题,通过给每段记忆贴上情感权重标签,从多维度量化用户情绪(如文本中的负面/正面词汇密度、句式、情绪强度词,综合算出0-100分的情感分数)[18] - 情感权重不仅决定记忆的优先级,更影响AI的回应逻辑,例如当用户有高负面评价历史时,AI会优先安抚再同步事实信息[18] 误解三:Agent的未来是标准化 - 尽管市场期待超级Agent,但红熊AI认为Agent类产品的宿命是革命传统SaaS,但也必须走上SaaS非标碎片化的老路[22] - 没有一套标准化的记忆系统能适配所有行业,甚至同一行业的不同品类都需要差异化定制,例如电商中卖手机壳和卖手套的商家关注的关键词和记忆规则都不同[22] - 不同行业的情感权重占比天差地别:售后客服、教育场景情感权重占40%-50%,必须优先安抚情绪;医疗、金融风控场景仅占10%-20%,事实优先;通用陪伴场景占20%-30%[23] - 红熊AI必须在做好标准化能力的基础上,接受在解决方案环节的非标准化[24] 红熊AI的产品与能力建设 - 红熊AI在今年1月推出记忆熊v0.2.0,构建了完整的记忆科学体系[12] - 在记忆熊v0.2.0中,公司强化了集群化Agent记忆协同能力,通过引入统一记忆中枢,实现多Agent间的最小化、按需式记忆共享,解决传统多Agent系统的记忆冗余、冲突问题[24] - 针对多模态数据处理,公司推出了三大解析引擎实现100%版面还原,支持PPTX高保真解析、音视频以文搜音,并通过向量+图谱双驱动检索,将多跳推理准确率提升至92.5%[24] - 非标环节集中于行业词汇库积累和知识图谱打造,首次拓展新品类客户时,前期与客户共建及知识梳理就需要几周时间,用户数据处理消耗整体25%上下的成本[27] - 公司需要不断学习积累不同行业知识,例如医疗行业的负面词是“疼痛、过敏、并发症”,金融行业核心词是“平仓、建仓、净值”[29] - 这种前期非标准化的缓慢开拓,会成为企业的先发优势和核心壁垒,遵循SaaS行业从灯塔客户到细分行业解决方案再到全行业拓展的成长路径[30][31]
OiiOii:一张通往“超级动画导演”的入场券 |「锦供参考」Vol.02
锦秋集· 2026-01-26 17:13
文章核心观点 - AI技术正在显著降低动画创作的门槛,使动画产业从传统的重资产、工业化流水线模式,向“意图主导”和“单人工作室”模式转变 [4][5] - OiiOii公司通过构建一个以用户为“导演”、多个AI Agent为协作系统的产品,旨在服务中国泛ACG领域约180万个活跃创作者,释放其创造力并极大提升内容生产效率 [4][31] - 视频AI模型将呈现多元化发展,垂直领域的AI Agent(如动画)因其对特定工作流和审美的深度理解,拥有独立于大模型厂商的生存和发展空间 [49][50][51] AI动画行业变革 - **传统流程复杂**:传统3D动画制作链条长,涉及剧本、角色设计、建模、分镜、贴图、灯光、渲染、剪辑等多个高度工业化的复杂环节 [8][9] - **AI压缩流程**:AI技术显著压缩了传统动画制作流程,尤其是模型层工作(如灯光、渲染),但核心创作逻辑(故事、角色设计、场景)并未改变 [10][11][12] - **降低门槛与改变角色**:AI使得产业链上原本只负责单一环节的专业人士(如建模师)有机会成为“导演”,完成个人创作,动画创作从集体重资产消耗进入“意图主导”时代 [5][13] - **提升行业产能**:AI有望缓解动画行业因高昂单位成本和漫长制作周期导致的产能不足问题,例如将现有账号的更新频率从周更提升至日更 [13][31] - **技术发展路径**:视频生成模型可能通过学习大量优秀动画内容直接生成结果,而非必须完全解决底层物理问题,这为动画AI发展提供了新路径 [17] - **中外技术氛围差异**:与美国(如迪士尼与高校深度合作)不同,中国动画行业与顶级高校间的技术合作几乎缺失,技术氛围尚未建立 [18] OiiOii产品战略与用户洞察 - **产品定位与理念**:产品定位为服务PUGC(专业用户生产内容)创作者,采用AI Agent模式,将用户设定为“导演”,AI Agent作为其执行团队,旨在增强用户对作品的“拥有感” [23][26] - **目标用户规模**:核心目标用户是中国泛ACG领域约180万个活跃账号,这些账号通常由2-3人维护,周更一次,使用工具后有望实现日更甚至更高频更新 [31] - **用户画像扩展**:工具不仅服务现有动画创作者,也吸引了大量无动画经验的潜在用户,包括性格内敛的北漂者、小学老师、专业插画师、父母等,用于制作Vlog、教学课件、个人故事和儿童内容 [4][41][42][43] - **效率提升显著**:对于目标用户群体,使用工具后内容生产效率成本预计能降低百倍 [32] - **技术架构挑战**:产品在平衡小白用户“一键生成”的惊喜感与专业用户“高度自由编辑”需求上面临挑战,技术架构已迭代多次以寻求稳定工作流与自由编辑的兼顾 [33] - **分镜生成优势与难点**:产品成熟度最高的环节是分镜Prompt扩写,能帮助用户用一句话表现故事性和情绪性;当前主要痛点是平衡分镜间的连贯性与场景切换带来的故事起伏感 [34] - **用户反馈与社区运营**:通过“听劝周报”等形式高度响应用户反馈,与用户“共建”产品,但有时过度听劝也可能导致产品调整失误 [35][36] - **海内外用户差异**:日本等海外用户更关注视觉精美度和风格多样性,而国内用户更注重故事信息量和“梗”,容易产出爆款内容 [38] AI视频领域竞争格局与Agent价值 - **对“一句话生成视频”的看法**:该模式对于20-30秒的简单视频成立,但对于4-5分钟的长创作不成立,且会削弱创作者的参与感和作品“拥有感” [48] - **垂直Agent的生存空间**:视觉模型因数据、标注标准和训练流程的细微差异会导致结果显著不同,因此很难一家独大,会呈现风格和领域专精的多元化格局,这为垂直领域Agent提供了发展机会 [49][50] - **模型与产品的边界**:在多模态领域,模型与产品之间有较清晰界限。视频创作需要多个模型协作和复杂的前置任务编排,这类高质量流程数据需通过产品在真实交互中积累,短期内模型厂商难以直接覆盖 [54][55] - **未来生态类比**:基础模型提供“食材”,而垂直Agent则是决定风味的“菜谱”或“餐馆”,未来视频Agent生态将像“小吃街”一样百花齐放,各自服务不同的内容形态和人群需求 [51][53] 创业与投资视角 - **创业体验**:创业者(CEO)会经历独特的孤独感,并在应对公司困境的过程中获得对抗焦虑的“抗体”,勇气和深度反思是推动迭代的关键力量 [56][57][58] - **投资动力**:投资人的核心动力包括好奇心(探索未知领域)、与优秀创始人交流获得的启发以及陪伴企业成长的过程 [61][62] - **2026年AI趋势展望**: - 模型智能与人类认知的差距将越来越小,推动大量可落地产品出现 [66] - 资本侧利好(如并购、上市)增强了创业者信心,AI行业目前受宏观经济影响较小,但最终将融入更广阔的科技生态 [67] - 看好的应用方向包括:新型多模态内容消费平台(探索互动性、模糊视频与游戏边界)以及主动式AI(能够理解上下文并进行预判) [68][69]
可聊天、看电影,元宝内测AI社交新玩法,马化腾亲自“安利”
搜狐财经· 2026-01-26 15:49
公司动态:腾讯推出AI社交新功能“元宝派” - 腾讯旗下AI助手“元宝”于1月26日低调开启全新社交AI玩法“元宝派”内测 [1] - 在腾讯2026年员工大会上,公司董事会主席兼首席执行官马化腾亲自为“元宝派”宣传,透露其旨在探索AI技术在多人社交场景下的深度融合 [6] - “元宝派”功能脱胎于腾讯会议里的AI探索和尝试,致力于打造一个能让AI与用户群体共同娱乐、协作的“社交空间” [6][8] - 该功能已打通微信、QQ等社交产品,用户可分享“派号”或专属邀请链接至微信朋友圈或好友,实现一键加入 [9] - 公司宣布将在元宝APP内派发10亿现金红包,以推广该应用 [9] - “元宝派”或将近期公测上线 [10] 产品功能与体验 - 用户可以选择创建一个“派”,或者加入一个已有的“派” [1] - 用户可以在派内@元宝或引用元宝的话,让元宝AI总结派内聊天、创建健身、阅读等兴趣打卡活动,并由元宝AI担任“监督员” [1] - 用户可以在派内进行“图片二创”,将普通照片变成有趣的“梗图”或表情包 [1] - 腾讯将向元宝用户开放QQ音乐、腾讯视频等海量内容,用户可以在元宝建立自己的“派”,实现和好友一起看、一起听 [6] - 后续公测将开放上线“一起看”“一起听”玩法,该玩法接入了腾讯会议的音视频底层能力,让用户可以邀请派内好友同步观看一部电影、一场比赛或听一首歌 [6] - 此前,元宝已和微信、QQ深度打通,用户可以在微信、QQ添加“元宝”为联系人互动,也能在公众号、视频号评论区@元宝,让其总结内容、拓展提问 [9] 战略意义与行业背景 - 此举标志着腾讯正将AI应用的探索方向,从提升个人效率的“工具”属性,延伸至连接人与人、增进群体互动的属性 [8] - 公司将AI战局拉进了自身最擅长的“社交场”,试图用“元宝派”打开一种全新的人与AI交互的模式 [8] - 当前,以“一对一”问答为核心的Chatbot(对话机器人)已成为AI应用的主流形态,主要体现为高效生产力工具的价值 [9] - 行业开始共同思考在“工具”之外,AI是否能以更自然、更深入的方式融入用户的日常生活 [9] - 业界的探索路径逐渐分野,一条是让AI模拟人类行为、完成复杂任务的Agent(智能体),另一条是将AI带入群体交流中,使其成为社交互动的一部分,“元宝派”正是腾讯在后一方向上的具体实践 [9] - 此前,元宝已稳居国内AI原生应用Top3,国内AI应用进入下半场,公司也许能在传统ChatBot基础上走出一条新路 [10]
CPU涨价会持续多久
2026-01-26 10:50
纪要涉及的行业或公司 * **行业**:AI Agent(人工智能代理)、CPU(中央处理器)产业链、云计算、服务器制造[1][2][3][4][5][6] * **公司**: * **CPU设计/供应商**:英特尔、AMD、海光信息、龙芯中科[1][2][19][22][23][24] * **服务器制造商/ODM**:浪潮信息、华勤、中科曙光[2][23][24][25] * **云计算厂商**:阿里巴巴(阿里云)、腾讯(腾讯云)、优刻得(UCloud)、AWS[2][5][6][22][24] * **CPU供应链**:和胜新材、中国长城、创意电子(GUC)、兴森科技(载板)[23][24][25] 核心观点和论据 * **核心观点一:AI Agent的兴起将驱动CPU需求呈指数级增长,而非线性增长**[1][14][16][17][21] * **论据1(需求来源)**:AI Agent任务范式从“推理-执行”(COT)转向“推理-执行-反思”,导致任务执行轮次和并行任务数量(步长)增加,CPU成为系统瓶颈,GPU利用率受制于CPU返回结果的速度[14][15] * **论据2(数据支撑)**:引用英特尔论文,在5个代表性Agent工作负载(如问答检索、数学计算、代码生成)中,CPU处理时间占比最高可达90%,远超GPU推理时间(仅10%)[7][8][9] * **论据3(增长模型)**:CPU需求增长与三个线性因素相乘相关:1) AI Agent渗透率;2) AI Agent任务步长;3) 工具调用频率。三者共同作用形成指数效应[16][17] * **核心观点二:CPU供应紧张,涨价趋势明确且可能持续一年以上,幅度可观**[1][4][14][19][20][21] * **论据1(供应瓶颈)**: * **英特尔**:受自身先进封装产能良率问题限制[1] * **AMD及云厂商自研ARM CPU**:受制于台积电先进制程(3纳米、5纳米)产能向GPU倾斜[1][20] * **整体**:Q1库存消耗后供应全年紧俏,载板等供应链扩产需要周期[2][3][4] * **论据2(涨价预期)**:产业链调研显示,高性能X86 CPU涨价幅度为“可观的双位数”;整体涨价趋势被类比为“存储2.0”,但更温和稳定,预计持续超一年[14][19][21] * **核心观点三:CPU需求增长不仅体现在AI服务器,更大量体现在通用服务器**[2][3][17][18] * **论据**:以微软为例,其采购NVIDIA AI服务器,CPU需求增长完全来自通用服务器。因为Agent任务瓶颈在于CPU开销(核数与数量),而非通信带宽,可通过增加通用服务器或CPU资源池形式解决[17][18][19] * **核心观点四:CPU及存储涨价将传导至云计算服务,引发云服务涨价潮**[2][21][22] * **论据1(成本压力)**:CPU、存储等硬件成本上涨给云厂商带来成本压力[21] * **论据2(传导动力与先例)**:云厂商有动力传导成本;海外AWS已上调GPU实例价格,为行业涨价开了头[22] * **论据3(预期)**:国内阿里云、腾讯云等厂商涨价“只是时间问题”,将带来利润率修复[2][5][22] * **核心观点五:投资机会沿产业链自上而下展开,CPU自身产业链最核心**[23][24][25] * **第一梯队(CPU产业链)**:国内看好海光信息(受益于供应紧张及市场化拓展)、中科曙光(持股海光+ODM);海外关注AMD、英特尔;供应链关注载板(如兴森科技)等[22][23][24][25] * **第二梯队(云计算)**:首推阿里巴巴,其次关注弹性较大的中小云厂商[24][25] * **第三梯队(服务器制造)**:浪潮信息、华勤等因CPU服务器毛利率更高而间接受益[23][24][25] 其他重要内容 * **需求量化展望**:预计到2026年,CPU需求增长幅度可能达到15%-20%,甚至30%-40%(两位数增长),而非此前预期的大个位数增长[19] * **技术细节佐证**: * **吞吐量瓶颈**:英特尔论文指出,当处理批次大小(Batch Size)达到128时,系统出现严重的CPU上下文切换瓶颈,限制吞吐量进一步提升[9][10] * **能耗变化**:在复杂Agent任务中,随着Batch Size增大,CPU能耗急剧上升,当Batch Size为128时,CPU能耗已接近GPU能耗[10][11] * **KV Cache卸载**:长上下文和KV Cache从HBM卸载到DRAM/SSD的过程,增加了GPU与CPU间的数据搬运需求,对通信带宽要求提高[16] * **市场认知差**:强调AI Agent对CPU的拉动是“指数级”增长,与市场其他观点可能存在的线性预期不同[1][21] * **国内产业动态**: * 阿里“通义千问”打通应用生态,内部调动大量CPU资源;预期腾讯、字节等将跟进推出类似超级入口[5][6] * 海光信息被看好从“信创市场”成功拓展至更广阔的行业及民营企业市场,成长天花板有望翻倍[22][23]
Agent到底对CPU带来怎样的需求
2026-01-23 23:35
行业与公司 * 行业:人工智能(AI)与计算硬件行业,特别是AI Agent、大模型推理、AI服务器和通用计算服务器领域 [1][2][4][21] * 公司:提及的技术与架构供应商包括英特尔、AMD、ARM、英伟达 [22][23] 核心观点与论据:AI Agent发展对CPU需求的影响 * **Agent数量增加直接推高CPU需求**:每个Agent执行任务时都需要复杂的数据处理和逻辑调度,多Agent系统的任务分配、通信协调和工具调用冲突处理也需要大量计算资源 [1][4] * **CPU用量增长介于线性与指数之间**:增长幅度取决于复杂长程任务的占比,未来几年用量可能接近2倍、4倍的增长,但不会完全达到指数级 [2][12] * **任务特性是影响CPU负载的核心变量**:长时任务(如2-4小时)对CPU负载影响大,而短时频繁任务影响较小 [1][6] 大模型的记忆能力是关键,记忆能力增强(如从1-2小时延长至1-2天)会提升长程任务占比,从而增加CPU需求 [6][7] * **AG类任务对CPU负载非常重**:用户输入约1,000个token,输出1,000-5,000个token,但中间计算过程可能消耗20万至50万个token,导致任务消耗比以往多10倍以上,甚至增长50至100倍 [11] 让AG承担更多实际工作的关键是连续工作的记忆能力,中断会导致效率下降 [11] * **虚拟机技术变化增加CPU需求**:现代AI集群中的虚拟机更注重硬件资源绑定,要求快速启停(1秒内启动)并具备常驻状态或标记点,这使得虚拟机与特定数量的物理核强绑定,增加了对高性能、高数量CPU的需求 [1][5] 核心观点与论据:CPU在AI计算中的角色与优化 * **CPU在大模型推理中起辅助作用**:在预填充阶段,CPU负责处理用户输入文本(规范化、分词等),将其转换为GPU可接受的格式 [2] CPU擅长处理数据搬运、多模态数据协调、集群硬件调度等逻辑密集型任务 [2] * **CPU在Agent推理中作用更为重要**:Agent实现从决策到执行的闭环需要复杂的逻辑引擎来调用工具、拆分需求、任务规划等,这些主要由CPU完成 [2] 例如分析公司股票,需要获取财报、计算指标并生成报告 [2] * **新技术(如Deepseek、Anagram)优化计算,部分工作负载向CPU转移**:这些技术引入类似字典的机制,利用CPU完成部分计算,减少GPU负担,优化了prefill阶段的输入文本处理,提升了查询效率和模型记忆能力 [1][10] * **CPU可用于小语言模型的推理和训练**:原理是将大模型量化到较低比特级别(如INT8或INT4),并将GPU算子转换为适用于CPU运行,但受限于并行能力,通常适用于端侧或边缘侧的小型设备,支持几个B或几十个B的小模型 [18] * **CPU对GPU的高性价比替代目前不现实**:在AI服务器中GPU不可或缺,普通CPU服务器无法替代GPU,在云计算等高复杂度场景仍需依赖GPU [12] 当前趋势是通过补齐AI服务器中的短板来提升性能,而非直接替代 [12] 核心观点与论据:硬件架构与性能考量 * **单个CPU核心支撑的Agent数量有限**:对于观看视频等轻量任务,一个核心可支撑2到5个Agent;对于编代码等稍复杂任务,一个核心可能只能支撑1到2个Agent [9] 随着Agent工作时间变长,每个核心能支撑的Agent数量减少 [9] * **当前瓶颈在于缓存容量,而非核心数量与频率**:L1、L2、L3缓存容量受限,需要通过更新解决,更重要的是增加CPU整体数量,并同步提升IO接口等硬件性能 [13] * **X86架构在软件生态兼容性上目前占优**:在创建虚拟机、调用底层编译器、控制浏览器内容通信等与Agent相关的应用中,X86表现更佳 [14] ARM架构在特定消费终端或移动设备生态中有其优势 [14] * **内存与存储管理增加CPU需求**:DRAM和SSD的冷热数据存储涉及数据通信,大模型需要适应不同存储逻辑和处理基于注意力机制的数据存储,这需要大量CPU计算资源 [2][15] 随着存储设备增加,大量数据的填充、截断、分散到不同设备,以及GPU服务器与其他系统间的数据传输,都需要CPU进行逻辑密集型处理 [17] * **数据向量化操作增加CPU需求**:将数据塞入GPU前需要通过向量化操作优化效率,这些操作通常由CPU完成,拉动对CPU数量和性能的需求 [16] 其他重要内容:市场、优化挑战与服务器趋势 * **高并发场景对CPU优化构成挑战**:即使单个简单任务占用资源极少,但若集中在短时段内(如午间外卖高峰),高并发性导致整体压力大,优化空间有限 [19] 用户规模增长时,CPU性能优化存在上限,优化可能提升60%效能,但在用户集中高峰期,提升比例可能降至40%左右 [20] * **通用计算服务器与AI服务器存在设计区别**:通用计算服务器主要挂载更多存储,而AI服务器因显卡占据空间,存储相对较少 [21] * **CPU供应稳定,主流厂商优势明显**:尽管市场有多个供应商,但在选择通用计算服务器时,稳定性和生态系统是关键,英特尔和AMD凭借成熟技术和生态占据市场主导地位 [22] 通用计算服务器已非常成熟,未来发展趋势仍将注重稳定性、性能及与现有生态的兼容性 [23]
2026 年的「创业」,就从一个 Skill 开始吧
Founder Park· 2026-01-23 21:31
Skill概念的市场热度与生态发展 - 2026开年,Skill概念热度持续攀升,迅速超越Agent、MCP等概念,成为各家产品争相支持的功能[2] - 在过去十几天里,Skill生态正在以数倍的速度持续扩张[2] - Skill主张将专家的工作SOP打包成可复用的资源包,其特点是搭建不难、易于分享且能交付结果[3] Skill的核心优势与市场进入门槛 - 创建Skill不需要Coding或拖拽搭建工作流,只需一套可复用的SOP即可,门槛比Vibe Coding还低,旨在让人人都能成为创作者[3] - 扣子2.0率先跟进Skill功能并快速推出「技能商店」,显示出主流平台对该趋势的快速响应[4] Skill招募大赛概况与目标 - Founder Park联合扣子举办Skill招募大赛,旨在鼓励分享最佳SOP实践,让能力成为一种流动的交换资源[5] - 大赛核心理念是将可标准化的执行工作交给Skill,使人的能力和时间聚焦于决策和创造[6] 大赛赛道设置与具体要求 - 大赛设置职场和极客两个赛道,参与者可选择1个或多个赛题进行Skill开发[6] - **职场赛道**:征集将日常工作方法论、专业领域知识、复杂性流程封装为可复用能力的实用性Skill,以助力职场人提效减负[7] - **工作效率提升方向**:针对述职汇报、会议协作、项目跟进等高频办公场景,将个人SOP转化为可复用技能,如自动整理会议纪要并输出行动项[9] - **市场营销创作方向**:面向内容创作者与营销从业者,打造具备强交付能力的营销类技能,覆盖从内容策划到素材投放的全流程场景[10] - **金融专业分析方向**:面向金融从业者,打造满足一致性规范、可审计、强决策支撑核心需求的专业技能,如财报关键指标速读、行业动态跟踪[11] - **极客赛道**:聚焦视觉冲击力、技术门槛与代码能力、交互体验的「魔法感」,征集具备技术突破性与体验创新性的Skill[12] - **强视觉冲击特效方向**:鼓励打造高质量视觉特效能力,如酷炫粒子效果、沉浸式3D空间场景、玻璃拟态等,需支持与交互行为的联动并兼顾性能[13] - **可视化库封装与应用方向**:征集可作为Skill能力模块独立调用的可视化方案,如动态智能图表、交互式地图等组件封装[14] - **代码创意交互方向**:倡导基于编程语言实现具有创意表达的交互型技能,如网页动画生成、新颖手势交互逻辑或结合硬件能力的联动效果[15] - 以上方向仅作为创作参考,不构成对技能形态或实现方式的限制,开发者可自由融合多个方向进行创作[16] 赛事奖励机制 - 入选优质Skill将公布至扣子技能商店页面[17] - 提供流量扶持,为优秀Skill加码商店内曝光资源[17] - 对符合条件的优质Skill开放付费权限,开发者可实现创作变现[18] - Founder Park社区提供额外福利:极客赛道入选Skill奖励500元京东礼品卡,职场赛道入选Skill奖励300元京东礼品卡,名额共计10份,按报名顺序发放[19] - 提供扣子周边作为奖励,福利名额有限,按报名顺序依次发放[19] 活动赛程与参与方式 - 报名提交通道自即日起开启,至2月9日20:00截止[20][21] - 赛事仅接受报名通道开启后才创建的Skill报名[21] - 报名时需填写Skill ID或Skill链接,需至少完成Skill创建后再提交报名表单[22] - 活动赛程包括:征集启动与提交Skill(即日起至2月9日20:00)、专家团队调研评审(2月9日至2月13日)、获选结果公布(2月14日)、奖励发放(2月27日至3月6日)[23] 高质量Skill的构建标准与判断方法 - 一个快速判断Skill是否成立的方法是:看其方法论能否在固定输入条件下,稳定产出「可直接使用」的结果,且在该场景下的效果与确定性明显优于通用大模型工具[25] - 高质量Skill的核心标准是:具备专业领域知识(非通用Agent能完成),本质上是一个产品,应像一个高度专业的虚拟员工,能独立、可靠地完成一项完整、有价值的任务[26]
学界大佬吵架金句不断,智谱和MiniMax太优秀被点名,Agent竟然能写GPU内核了?!
AI前线· 2026-01-23 17:18
文章核心观点 - 文章围绕“通用人工智能(AGI)能否成为现实”展开了一场深度辩论,两位来自学术界与产业界的一线研究者基于对算力、模型架构、应用落地的不同理解,阐述了各自对AGI定义、发展现状及未来趋势的判断 [6][7] - 尽管对AGI的实现路径存在分歧,但双方均认为,相较于抽象定义,AI技术(尤其是智能体)的实际“实用性”及其对工作方式的变革才是关键,并一致看好小模型、开源模型、新硬件及多元化架构的未来发展 [15][23][55] 关于AGI定义的争论 - **定义视角**:AGI的定义主要有两种主流视角,一种关注模型覆盖的认知任务广度,另一种则从经济角度出发,看其是否引发新的工业革命并改变生产方式 [14][35] - **共识与分歧**:双方达成共识,认为AGI的具体定义并不重要,关键在于它是否改变了人类的工作方式 [15][55]。丹·傅认为,以5-10年前的标准看,当前的语言模型在写代码、生成语言等方面已实现早期设想的AGI,并可能引发软件工程领域的工业革命 [34]。蒂姆·德特默斯则认为,当前关于AGI的狂热预测源于特定社群的信息茧房,缺乏对计算现实的考量 [36] 算力增长的潜力与极限 - **算力极限论**:蒂姆·德特默斯认为“计算是物理的”,内存迁移、带宽、延迟及冯·诺依曼瓶颈决定了算力不可能无限扩张,指数增长终将放缓,Scaling Law也不例外 [10][37]。他指出,从DRAM到HBM等硬件创新已接近物理极限,量化技术(如4位精度)也已发展至尽头,功能和硬件潜力均已被充分挖掘 [40][42][43] - **算力潜力论**:丹·傅认为当前谈“算力见顶”为时过早,现实系统中算力被严重低估和浪费,大量性能消耗在内核调度与系统开销上 [12]。他指出,当前评测的“最强模型”多基于一两年旧的算力集群训练,未能代表当下硬件的真实上限 [12][49]。通过新一代硬件(性能提升约2–3倍)、系统与工程优化(算力利用率提升约3倍)及更大规模集群(规模效应约10倍)三者叠加,理论上可用算力有接近90倍的提升空间 [13][18][46] 智能体(Agent)的发展与应用 - **拐点时刻**:丹·傅指出,2025年6月是Agent发展的关键拐点,当时代码智能体成功攻克了被视为编程领域终极难题之一的“GPU内核编程”,使其个人工作效率提升了5倍,其团队也能快速完成原本需耗时数月的复杂系统开发 [17][20][62][63] - **高度通用性**:蒂姆·德特默斯认为代码Agent本身就是高度通用的Agent,因为代码几乎可以描述和解决所有数字化问题,并断言超过90%的代码和文本本应由Agent生成 [20][66] - **应用与管理范式**:双方将Agent比作“需要精细化管理的实习生”,人类需提供明确背景、拆解任务并设定约束,而将注意力聚焦在方向把控与结果校验上 [21]。丹·傅强调,专业知识越深厚的专家,Agent能为其创造的效率增量就越显著 [21][74] - **必备技能**:蒂姆·德特默斯强调“要么善用Agent,要么被时代淘汰”,使用Agent并有效检查、编辑其输出(约10%的工作)将成为未来核心技能,能带来巨大的生产效率提升 [20][67][68] 人工智能行业未来趋势预判 - **小模型与开源模型**:双方均认为小模型将成为行业新热点,针对特定领域数据训练的小模型部署难度低、性能出色,将更具吸引力 [23][81]。开源模型(如GLM-4.7)的能力将进一步飞跃,并开始媲美最优秀的前沿模型 [23][26][83] - **硬件多元化与专业化**:硬件赛道将走向多元化发展,训练与推理环节的专业化分化会加剧 [23][24]。推理芯片将更侧重在手机、笔记本电脑等终端设备本地运行 [61] - **架构创新**:Transformer架构独霸天下的时代将落幕,状态空间模型(SSM)、线性注意力及各类混合架构等新架构将登上舞台 [25][84][86]。中国团队在架构创新上更敢于探索多种可能性,通过架构创新或极致性能让开源模型脱颖而出 [26][85] - **多模态与端侧AI**:多模态领域(如视频生成)及端侧AI(在笔记本电脑、手机等设备上运行的AI)预计将有进一步发展 [23][83] - **中美发展路径差异**:相比美国“先做出最强模型,再等待应用出现”的思路,中国模型团队的发展思维更务实,更关注模型能否真正落地并在现实场景中产生价值 [26][55]
CPU:服务器中枢大脑,需求的拐点
东北证券· 2026-01-22 17:42
报告行业投资评级 - 行业投资评级:优于大势 [6] 报告的核心观点 - 报告核心观点:服务器CPU行业正迎来需求拐点,供给侧产能紧张与涨价、需求侧AI推理与Agent等新应用驱动、行业景气度提升共同构成了行业的核心投资逻辑 [1][2][3] 供给侧总结 - 海外巨头计划涨价:英特尔和AMD计划在2026年将服务器CPU价格上调10%-15% [1] - 产能结构向服务器倾斜:英特尔将Intel 3和Intel 7等先进制程产能转向服务器,导致消费电子端交付保证率大幅下滑,PC CPU供给缺口加剧,而服务器端的至强Xeon4/5和第五代EPYC CPU库存已几乎售罄 [1] - 上游材料供应紧张:产业链信息显示ABF载板因t-glass短缺而供应紧张,英特尔优先保供服务器CPU,导致服务器CPU产能仍然紧缺 [1] - 产品结构优化带动盈利:英特尔和AMD通过调整产品结构向高端服务器倾斜,或将带动平均售价及整体毛利率提升 [1] 需求侧总结 - AI推理需求旺盛:生成式AI训练和推理集群扩容,算力缺口指数级放大,带动推理服务器头节点需求增长 [2] - 通用服务器进入更新周期:超大规模数据中心进入3~5年一次的“升级周期”,旧机架功耗已触顶,更新换代为必要需求 [2] - Agent时代驱动CPU需求激增:CPU角色转变为AI系统的“调度中枢”,Agentic工作流属于计算密集型,需要比传统GenAI查询更多的处理能力 [2] - 柜内CPU:英伟达Blackwell架构的ARM CPU存在瓶颈,新一代Rubin架构将大幅提升CPU核心数与超线程 [2] - 柜外CPU:Agent需要CPU创建大量沙箱环境执行任务,用量与Agent用户数相关,驱动独立通用服务器需求增长 [2] - 核心驱动:单GPU对应的CPU计算核数量增长,以及多个Agent并行执行带动云端沙盒调用量飙升,从而大幅增长对CPU数量的要求 [2] - 市场格局反转带来补偿性投资:此前AI服务器火热而通用服务器遇冷的格局反转,通用服务器市场出现补偿性投资机会 [2] 行业格局总结 - 市场规模与增长:2025年全球CPU市场规模约1302亿美元,商启咨询预计2026年全球CPU市场规模约1412.7亿美元,2025-2030年CAGR约8.5% [3] - 中国市场结构:中国CPU市场中,桌面CPU份额为50%,移动CPU和服务器CPU分别占比30%和20% [3] - 竞争格局:中国CPU市场目前由国外企业主导,英特尔和AMD分别占据了50%和30%的份额,华为和联发科分别占据10%和5%的份额 [3] 相关投资标的 - 国产CPU:海光信息、禾盛新材、龙芯中科等 [4] - CPU上游:华大九天、华正新材等 [4] - 服务器:中科曙光、浪潮信息、紫光股份等 [4] 行业市场数据 - 行业表现:计算机行业近1个月绝对收益13%,相对收益10%;近12个月绝对收益34%,相对收益11% [8] - 行业概况:计算机行业成分股数量425只,总市值33270亿,流通市值28279亿,市盈率134.08倍,市净率4.01倍,成分股平均资产负债率209.76% [8]
MiniMax Agent 开年更新,好的 AI 产品,需要让工具来适应人了
Founder Park· 2026-01-21 17:30
行业趋势:桌面AI Agent的兴起与共识 - 行业已形成清晰共识,即“桌面Agent”突然火了起来,这代表着AI Agent正从概念走向面向大众的日常使用和实际交付阶段 [2][3] - 核心变化在于AI的“上下文”从网页对话框扩容至用户的真实工作环境,包括硬盘、浏览器、文件目录和屏幕画面,使其从“咨询顾问”转向能够动手操作的“执行者” [3] - 开源社区迅速跟进,出现了各种“开源Cowork”或“Local First”产品,外部竞争压力促使Anthropic将其Claude Cowork功能从100美元Max套餐下调至20美元Pro档 [1] 产品评测:MiniMax Agent Desktop的核心功能与体验 - 产品提供本地文件处理、Browser Use等功能,用户可通过一句话指令快速完成基于本地的任务,网页端新增“专家”功能,可将常用配置保存为可复用的指令、模型偏好和Agent行为模板 [1] - 在整理包含**400多本**电子书的文件夹任务中,Agent能请求访问权限、制定整理规划、自动分类命名、联网检索模糊信息,并最终输出重新分类的文件夹和一份详细的Excel表格 [6][7][8][9][12][14] - Agent具备识别重复文件的能力,主要基于标题相似度,并可应要求使用哈希值进行二次校验 [16][17] - 在尝试操作小红书内容生产流水线时,Agent能自动完成深度调研和内容生成,但在涉及账号登录、图片上传等平台风控环节时需要人工介入,展现了其在前**90%** 工作流程中的高效生产力 [35][36][37][38][39][40][41] 产品创新:专家功能与SOP的封装复用 - 网页端的“专家”功能允许将个人或团队的方法论封装成可反复调用的执行体,这相当于Claude Skill的普适版,门槛更低但能力未打折 [19] - 通过将行业经验、SOP和知识库注入Expert Agent,可以将一个**70-80分**的通才AI提升至接近**95分**的专家水准,使“经验”成为一种可复用的数字资产 [25][26][27][33] - 官方和社区已封装并提供多种专家Agent,例如落地页制作助手、文档处理助手、全球投资专家、翻译专家等,用户也可自行创建并发布 [20] 行业影响:对工作流程与资产定义的变革 - Agent的普及促使工作心态从与AI进行“探索性、发散式”的脑暴,转变为像“带新人”一样进行任务下达、执行和验收的管理模式 [45][46] - 公司的核心资产“经验”和“SOP”得以从文档中的死文字,转变为可交接、可复用、可执行的数字资产,新人可直接调用专家方法论交付稳定成果 [44] - 桌面Agent的本质是连接“本地资产”与“云端智能”的桥梁,它改变了人适应工具的传统,转为让Agent主动进入并理解人的工作环境 [47][48] - 这不仅是GUI界面的更新,更是对未来工作形态的预演,标志着AI必须深入具体业务场景,也是Agent产品走向更大众市场的开始 [49][50][51]
刚刚,MiniMax来承包你的桌面了
机器之心· 2026-01-20 19:24
行业趋势与竞争格局 - 2026年被预期为AI智能体(Agent)赛道新一轮爆发之年,行业竞争已进入白热化阶段[1] - 市场出现分化,主要参与者专注于两大方向:提升工作效率与重塑日常生活体验[1] - 国外如Anthropic发布Cowork,国内如千问APP上线“任务助理”,表明国内外厂商均在积极布局[1] MiniMax Agent 2.0产品核心升级 - 公司于2026年1月20日发布第二代智能体产品MiniMax Agent 2.0,将其定位为“AI原生工作台”,在产品形态和能力上进行了深度重构[2] - 产品核心目标是从“靠谱的AI伙伴”升级为能自主执行复杂任务的“进阶型智能协作伙伴”,在自动化执行的广度、深度和专业度上全方位加强[2][5] - 产品升级建立在三大核心支柱之上:桌面端应用、垂直领域专家智能体(Expert Agents)以及用户自定义专家智能体的能力[2][3][5] 核心支柱一:桌面端应用(MiniMax Agent Desktop) - 桌面端应用让智能体跳出浏览器,能够直接操作本地文件和环境,并启动网页自动化任务,实现了本地与云端工作的无缝连接[2] - 该应用已上线Windows和Mac双版本,通过一个全局视角渗透到各职能角色的核心工作流中,旨在将人类从重复性劳动中解放出来[2][3] - 其核心设计是深度打通本地文件,用户指定工作目录后,AI可读取、分析并批量处理该目录下的所有文件,体现了“AI原生工作台”的思路[7][9] 核心支柱二:垂直领域专家智能体(Expert Agents) - Expert Agents旨在打造垂直领域的顶级专家分身,通过封装私有知识和行业独家标准操作流程(SOP)来武装用户[3] - 相比1.0时代依赖的、只能提供70分通用专家组合的多专家系统,Expert Agents可将专家水平提升至95分甚至100分,可靠性有质的飞跃[3] - 官方提供大量开箱即用的Expert Agents以降低操作门槛,用户可在桌面和网页双端限时免费体验该功能[3][4] 核心支柱三:用户自定义专家智能体 - 用户可通过提供更多上下文信息和更自由的自定义设置,创建更懂用户、提供个性化服务的专家智能体[5] - 创建过程简单直观,用户可将行业经验、部门SOP或复杂业务逻辑转化为可重复调用的模块[24][28] - 在面对复合任务时,用户可指挥一支由特定领域专家组成的数字团队进行协作,实现了从“单点能力”向“专家协作”的转变[26][28] 产品实测与功能展示 - 在“刷选题”任务测试中,智能体在2分多钟内成功编写脚本并完成可行性测试,还能提供后续实现定时任务的教程[11] - 在复杂的“读论文并制作技术图谱”任务中,智能体耗时约6分钟,完成了下载文档、分析解读、技术追溯并最终生成和部署展示网页的全流程[12][13][14][15][17] - 在“从多个文档中提取技术博客并制作PPT”的繁琐任务中,智能体耗时23分钟,完成了格式转换、内容读取、链接访问、内容总结及PPT生成等一系列操作[17][18][19] - 智能体能够处理本地环境任务,例如根据用户指令,自动调用本地已安装的ffmpeg工具,对文件夹中的多个视频进行不同倍率的加速处理[22][23] - 多智能体协作功能允许用户启用多个配置好的专家子代理,围绕一个主题进行多视角的深度讨论,由主智能体担任主持人进行调度[26] 战略定位与底层能力支撑 - MiniMax Agent 2.0的战略是重新定义AI能力边界,其重点不在于展示“想得有多聪明”,而在于证明“能把事做到哪一步”,核心是以任务完成率为中心的设计[29][30] - 产品定义的“AI原生工作台”意味着交互逻辑从“人要被动适应Agent”变为“Agent主动适应人”,智能体主动进入工作环境并持续推进任务[30][31][33] - 产品能力背后是公司在模型层面的持续升级:2025年6月的Lightning Attention技术将长序列计算成本从二次方降为线性;10月发布的M2模型定位为Agent & Code Native,采用交错思维和MoE架构,总参数达2300亿,激活参数100亿,其API价格仅为Claude Sonnet 4.5的8%;12月的M2.1模型则深入后端语言,具备全栈工程能力[32] - 公司内部已形成快速自我强化的迭代闭环:模型能力首先被用于内部研发与办公核心流程,据悉过去数周内公司内部接近100%的员工开始使用Agent,高频的真实业务使用反馈又驱动下一轮模型和系统升级[32]