持续学习
搜索文档
万亿级 AI 赌注之后,Ilya Sutskever:只堆算力和肯做研究,结果会差多远?
36氪· 2025-11-26 09:02
万亿级赌注,已经押下去了。 Gartner 预计,仅 2025 年全球 AI 支出就将接近 1.5 万亿美元,2026 年将突破 2 万亿美元;英伟达 CEO 黄仁勋判断,本十年 AI 基础设施投入可能达到 3 万亿到 4 万亿美元,称之为新工业革命。 所有人都在抢 GPU、建数据中心、拉电网。问题似乎只剩一个:还能再堆多少算力? 前 OpenAI 首席科学家、Safe Superintelligence Inc.(SSI)创始人 Ilya Sutskever,在 2025 年 11 月 25 日 最新一期《Dwarkesh Podcast》播客里,给出了完全不同的答案: We're moving from the age of scaling to the age of research(扩展的时代结束了,研究的时 代开始了). 说这话的人,恰恰是最早把算力假说推向极致的人之一。2024 年离开 OpenAI 后,他创办了 SSI,一家 只做一件事的公司:安全的超级智能。 不到一年,SSI 以 320 亿美元估值完成 30 亿美元融资。 在这场 90 分钟访谈里,他给出了三个核心判断: 当今大模型的迁移能力 ...
LLM 语境下,「持续学习」是否是 「记忆」 问题的最优解?
机器之心· 2025-11-16 09:30
LLM语境下持续学习与记忆问题 - 谷歌提出嵌套学习范式将模型视为一系列嵌套问题堆叠旨在学习新技能同时规避灾难性遗忘问题[6] - 嵌套学习核心论点在于机器学习模型由多个相互关联层次分明优化子问题组成将模型优化器与记忆统一看作多级并行带独立上下文流优化问题[6] - 基于嵌套学习原理研究者设计HOPE架构在语言建模长上下文推理持续学习与知识整合任务上较Transformer++等基线模型表现出更低困惑度与更高准确率[7] - AI社区存在争议认为嵌套学习类似已有技巧叠加如2020年ModNet和2024年ACh和NA框架等多尺度持续学习并非全新概念[8] - 持续学习核心挑战是解决灾难性遗忘即智能系统学习新任务时避免覆盖旧任务知识LLM时代表现为模型降智如领域SFT训练导致通用基准测试性能下降[8] - 当前LLM研究焦点偏向通过改善记忆力使智能体保留情景经验语义知识和程序技能设想跨持久智能记忆层包含Model Weights层KV Cache层和Context层[8] 从行为数据到AI记忆的路线 - 产品方强调更懂你资本强调难以复制引发AI产品护城河是否真实存在讨论不同产品在记什么记多久上押注不同方向[1] - 医疗对话记忆能否作为知识库提升诊疗质量探讨软件被动记录无法覆盖全部生活场景需借助硬件实现always on模式[1] 合成数据与人形机器人发展 - 合成数据被视为数据金字塔中坚力量DARPA寒冬已过人形机器人迎来技术和市场双重爆发[2] - 人形机器人利用以人为中心数据源真实数据虽是黄金标准但被称为最大瓶颈GenAI指数引擎是否创造有用数据受关注[2]
突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化
机器之心· 2025-11-08 14:10
嵌套学习范式核心观点 - 谷歌提出一种全新的机器学习范式“嵌套学习”,旨在解决大语言模型的持续学习难题,使模型能够不断学习新技能而不遗忘旧知识 [1] - 该范式将模型架构与优化算法视为统一的、具有不同更新频率的“优化层”,突破了传统上将二者割裂的视角 [6][7] - 嵌套学习框架下设计的Hope架构在实验中表现出更强的表达能力、更高效率及持续学习能力,被认为是迈向自适应、自我改进智能的重要一步 [3][4][30] 嵌套学习的技术原理 - 嵌套学习将复杂机器学习模型视为一组相互嵌套或并行运行的优化问题,每个子问题拥有独立的上下文流和更新频率 [11][16] - 该范式揭示了传统深度学习是在“压缩”内部信息流,而嵌套学习提供了新设计维度以构建具有更深计算深度的学习组件 [12] - 训练过程中的反向传播可被建模为一种联想记忆机制,学习将数据点映射到其局部误差以衡量“意外程度” [12] - 类似地,Transformer的注意力机制也可形式化为联想记忆模块,嵌套学习使得模型每个组件都能以不同频率更新,模仿人脑的多时间尺度更新机制 [13][15] 嵌套学习的实际应用与改进 - 在优化器方面,嵌套学习将优化器视为联想记忆模块,通过将优化目标改为更标准的损失指标(如L2回归损失)可推导出对噪声数据更具鲁棒性的新动量公式 [18][19] - 在记忆系统方面,嵌套学习将传统Transformer的短期与长期记忆概念扩展为“连续体记忆系统”,其中记忆被视为一系列以不同特定频率更新的模块,为持续学习创建了更丰富高效的记忆系统 [20][21] Hope架构的设计与性能 - Hope是谷歌基于嵌套学习原理设计的一个自我修改的循环架构,是Titans架构的一个变体,能够执行无限层次的上下文学习 [23][24] - 该架构通过连续体记忆系统模块扩展上下文窗口,并能通过自我引用过程优化自身记忆,形成具有无限循环学习层次的结构 [24] - 实验结果显示,Hope在多项语言建模与常识推理任务上表现出更低的困惑度与更高的准确率,在长上下文记忆管理方面超越了当前最先进的模型 [8][27][30]
Meta拆掉AI持续学习路上的最大炸弹,“微调”又有了一战之力
36氪· 2025-10-27 13:13
持续学习的背景与路径 - 大型语言模型界正集体尝试突破持续学习和元学习能力的天花板,目标是实现模型的自我进化[1] - 实现持续学习的关键在于模型的“记忆”深度和可塑性,主流方法可归纳为三条主要路径[2] 路径一:改变上下文 - 通过修改模型的“工作记忆”,即上下文学习,使模型在当前对话中学会解决特定问题[4] - 最新进展是“系统提示学习”,模型通过语言层面的总结与归纳来反思成功与失败,并更新系统提示词以提升未来能力[4] - 此方法通过影响模型底层行为指令,使学习成果得以沉淀,解决了上下文学习浮于表面的问题[6] 路径二:引入外部记忆库 - 通过检索增强生成给模型配备外置数据库,持续学习体现在模型有能力更改、积累和维护此外部记忆库[7] - 谷歌DeepMind的“Reasoningbank”研究打造了一个“高级大脑记忆库”,存储从经验中总结出的“方法论”和“避坑指南”,而非零碎事实[7] - Anthropic的Claude Skill功能结合了上述两层方法,让智能体通过总结经验来学习新技能[9] 路径三:参数层面更新 - 此最根本的路径因训练开销巨大或方法不稳定而长期进展缓慢,例如强化学习和轻量化监督微调[9] - Meta AI的新论文《通过稀疏内存微调实现持续学习》为这条路径带来了根本性改变[9][11] 监督微调的挑战与Meta的解决方案 - 监督微调面临“灾难性遗忘”的根本矛盾,即学习新知识时会破坏存储旧知识的参数[11] - Meta提出的稀疏内存微调方法核心思想是只更新与“新知识”相关而与“旧知识”无关的参数[11] - 解决方案第一步是改造架构,将标准Transformer中的一些前馈网络层替换为拥有100万个“微型专家”的内存层,提供精细控制力[12][14][15] - 第二步引入TF-IDF算法精准定位既重要又安全的参数,即对新知识至关重要且不负责通用知识的参数[16][17][18][19][21] - 第三步进行稀疏更新,在反向传播时只允许梯度流向TF-IDF得分最高的Top-t个内存槽位,例如仅更新100万个槽位中的500个[22] 新方法的效果与优势 - 在学习新事实后测试原有任务表现,新方法仅导致分数下降11%,而LoRA下降71%,全量微调下降89%[23] - 新方法在学习能力上相当或更优,并在稳定性上具有压倒性优势,几乎治愈了监督微调的核心痛点[25][28] - 存储1000个新事实仅需占用约500个内存插槽,显示该方法具有持续学习海量新知识的巨大潜力[26] - 训练成本上,每一步需要更新的参数数量也远少于LoRA,降低了优化器的内存开销[26] 不同路径的比较与未来展望 - 非参数化学习路径存在根本尴尬,模型像依赖外部教科书或自己笔记的学生,未能真正内化知识[29] - 研究指出上下文学习泛化能力有限,因其过度关注统计特征而非任务根本规律[29] - 参数更新路径是更根本的解决方案,Meta的方案使其变得安全、稳定和可控[30][31] - 该进展意味着监督微调的春天可能来临,模型有望从静态工具转变为在经验流中不断成长的智能体[31][32]
96.0%受访职场青年认为工作后更应注重个人成长
中国青年报· 2025-10-23 08:32
调查核心观点 - 96.0%的受访职场青年认为毕业后步入职场更应该注重个人成长 [1][2] - 工作后的持续学习使54.8%的受访职场青年在工作中表现更从容,47.1%的受访者更有自信和成就感 [1] - 专家观点认为,毕业后的持续学习能决定一个人未来在职场中发展的高度,从短期看可保持竞争力,长期看有助于获得更广阔的成长与晋升空间 [5] 职场青年看重的成长方面 - 专业技能是受访职场青年最看重的方面,占比70.9% [3] - 工作业务能力位列第二,占比68.0% [3] - 人际沟通能力排在第三位,占比53.4% [3] - 其他重要方面包括理财投资(41.7%)、时间管理(41.1%)、为人处世(39.9%)等 [3] 持续学习带来的益处 - 52.9%的受访职场青年认为持续学习能带来更广阔的个人发展空间 [5] - 46.1%的受访者感叹持续学习提高了个人综合能力 [5] - 43.7%的受访者表示持续学习使其每天都有精气神儿,41.0%的受访者精神生活更充实富足 [5] 受访者背景分布 - 受访职场青年工作所在地为一线城市的占36.4%,二线城市的占51.3%,三四线城市的占12.0% [5]
大佬开炮:智能体都在装样子,强化学习很糟糕,AGI 十年也出不来
自动驾驶之心· 2025-10-22 08:03
文章核心观点 - AI行业存在过度夸大和脱离实际的现状,AGI的实现仍需约十年时间,其发展将带来每年约2%的GDP增量,但并非以当前主流预期的方式实现[2][3][5][6][10][12][13] AGI发展时间与瓶颈 - AGI的实现预计需要十年时间,当前AI智能体存在认知缺陷,包括不够聪明、缺乏多模态能力、无法进行计算机操作、缺乏持续学习能力等[12][13] - 行业曾过早尝试完整解决方案,如雅达利深度强化学习和OpenAI的Universe项目,但因缺乏足够的表征能力而失败[16][17][18] - 预测未来算法将与当前有所不同,但核心仍将是通过梯度下降训练的大型神经网络,需在架构、优化器、损失函数等方面全面改进[33][34][35] LLM认知缺陷与学习机制 - 大语言模型存在认知缺陷,不擅长编写独特或智力密集型代码,容易误解代码风格并增加不必要的复杂性[40][41][42][43] - 模型记忆能力过强,但缺乏类似人类的反思、知识提炼和合成数据生成过程,导致其输出多样性不足且容易发生模型崩溃[60][61][62][63][67] - 人类学习通过内置硬件和进化编码的算法进行,而LLM通过模仿互联网文档训练,是两种不同的智能路径[19][20][22][23] 强化学习局限性 - 强化学习存在显著缺陷,其通过最终结果奖励整个过程的机制噪音过大,无法有效分配部分信用[50][51][52] - 基于过程的监督虽为替代方案,但自动化分配信用困难,且易受对抗性示例影响,导致模型找到漏洞欺骗评判系统[54][55][56][58] - 人类不使用强化学习进行智能任务,而是通过更复杂的回顾和思考过程,当前LLM缺乏相应机制[21][50][52] 自动驾驶与教育应用挑战 - 自动驾驶实现需要较长时间,因涉及复杂物理世界交互,其难度远高于纯数字知识工作[6][10] - 教育的未来可能涉及AI辅助,但需解决模型当前认知缺陷,如持续学习、知识提炼和长上下文处理等[6][10][31][32] 智能进化与经济影响 - 智能进化类似计算趋势的延伸,超级智能将是社会自动化的进步,逐步承担数字和体力工作[94][95] - AGI对经济的影响主要体现在自动化知识工作,预计可覆盖10%到20%的经济份额,但需考虑社会任务重构和工作界面变化[83][84][85] - AI当前最成熟的应用在编程领域,因代码高度结构化且具备相应基础设施,其他文本处理任务如内容重写等仍面临挑战[88][89][90][92]
Andrej Karpathy 开炮:智能体都在装样子,强化学习很糟糕,AGI 十年也出不来
机器之心· 2025-10-18 13:44
AGI发展时间框架与当前局限 - AGI的实现仍需约十年时间,当前AI代理存在认知缺陷,包括缺乏多模态能力、无法进行计算机操作、缺乏持续学习能力等[10][11] - AI行业存在过于乐观的预测,将当前阶段称为"智能体的十年"更为准确,而非"智能体之年"[10] - 实现真正可工作的AI代理需要解决智能程度不足、持续学习、记忆能力等关键技术瓶颈[11] LLM认知缺陷与技术挑战 - 大语言模型存在严重认知缺陷,无法胜任复杂编程任务,特别是在处理非模板化、智力密集型代码时表现不佳[35][36] - 当前编码模型在理解自定义实现和代码风格方面存在局限,经常误解开发者的编程意图[36][37] - 模型倾向于过度依赖训练数据中的常见模式,难以适应创新性的代码架构和实现方式[38] 强化学习范式的问题 - 强化学习存在根本性缺陷,其通过最终结果反向加权整个过程的机制效率低下[45][46] - 人类并不使用类似强化学习的方式解决问题,而是通过更复杂的反思和回顾过程[45][46] - 基于过程的监督比基于结果的奖励更合理,但实现自动化信用分配面临技术挑战[48][49] 人类学习与AI学习的差异 - 人类学习通过信息操纵和思考实现知识获取,而LLM仅通过预测下一个token学习,缺乏深度思考机制[56] - 人类记忆能力有限反而有利于泛化学习,而LLM过度记忆训练数据可能阻碍认知能力发展[62][63] - 模型崩溃问题源于合成数据训练的局限性,需要保持足够的熵值来维持输出多样性[57][64] AI对经济增长的影响 - AGI将逐步融入经济增长,预计每年带来约2%的GDP增量,但不会以爆发式方式实现[75][76] - AI自动化将首先应用于适合数字化的领域,如呼叫中心等结构化任务,而非复杂的知识工作[78][79] - 编程是AI应用的理想起点,因为代码本质上是结构化的文本,与LLM的技术特性高度匹配[82][83] 技术发展趋势预测 - Transformer架构可能继续演进,但梯度下降训练大型神经网络的基本范式将保持不变[29][30] - 未来技术进步需要算法、数据、硬件等多方面协同改进,而非单一领域的突破[30][74] - 认知核心参数规模可能优化至十亿级别,通过知识蒸馏去除过度记忆,保留核心推理能力[67][70] 实际应用部署路径 - AI部署将采用渐进式自动化策略,人类作为监督者管理多个AI代理,而非完全取代人工[79][80] - 当前AI在经济价值创造上主要集中在编程领域,其他知识工作的自动化进展相对缓慢[82][84] - 超级智能应被视为社会自动化的自然延伸,是计算趋势发展的结果,而非突变式突破[86]
《大模型的第一性思考》李建忠对话GPT5与Transformer发明者Lukasz Kaiser实录
36氪· 2025-10-13 18:46
对话一:语言对于智能到底意味着什么? - 语言模型在智能构建中扮演核心角色,其成功源于对语言在智能中核心作用的认知,ChatGPT和Transformer的成功均得益于此[6][9] - 语言具备时间维度,总是在生成下一个词,而序列模型(如Transformer)可处理包括语言、蛋白质、音频在内的各种序列,时间序列是表达智能的重要组成部分[7] - 语言训练具有实践优势,互联网上海量的语言数据使得训练非常方便且成本远低于视频训练[9] - 语言模型确实会形成独立于语言的抽象概念,例如在解决数学问题时,尽管用不同语言生成答案,但解题方式和错误类型相同,表明模型在抽象空间进行思考[10] - 然而,未经过大量多模态数据训练的模型,其概念(如"痛苦"或"爱")可能与人类植根于物理世界的真实感受有所不同[11] 对话二:多模态与世界模型的挑战 - 现代大语言模型(如GPT-4)已是多模态模型,能接收和生成图像、音频,并已取得巨大进展,例如ChatGPT的语音模式可以对话、唱歌[12] - 当前多模态处理方式(如通过VQ-VAE将图像/音频编码为特殊代码)有效但不令人满意,未来需要更深入地将多模态融合到模型中,使编码更具可训练性并与语言有更多交互[13] - 语言对于为视觉对象赋予语义含义至关重要,否定语言价值的视觉派研究可能重蹈ChatGPT发布前的错误路线[14] - 现代大语言模型在某种程度上已是世界模型,在文本和数学方面表现卓越,但作为物理模型的表现不如语言模型,部分原因是视频训练数据不足、质量不佳及当前架构限制[14] - 通过改进架构、损失函数并增加更好更多的数据,结合像Sora、Genie和Veo这类从视频学习的模型,正在弥合"世界模型"与"语言模型"之间的差距[15] 对话三:AI编程:自然语言是终极目标,还是新的"巴别塔"? - Transformer架构的创造者在早期就已预见其在自动化编程方面的应用潜力[17] - 未来语言模型将能覆盖大量编程工作,但数学符号和编程语言作为沟通工具,在解释复杂概念时比纯自然语言更高效,因此专业程序员仍需掌握这些概念以实现与模型的快速、高效沟通[18] - 编程的重点在于沟通和抽象,而非特定语言,AI有望帮助更好地使用现有编程语言来改进系统,而非必然需要创造新的为AI设计的编程语言[19] - 新的编程语言需求将来自新的计算硬件架构,而非AI编程本身[20] 对话四:Agent的泛化困境:是方法问题,还是根本限制? - 所谓的"智能体模型"通常指在其推理过程中能调用外部工具(如代码解释器、网络搜索)的推理模型,这些模型使用强化学习训练且效果良好[21] - Agent泛化问题的主要挑战在于缺乏学习信号,当模型使用未经训练的工具时,没有像强化学习训练那样的反馈机制来检查答案正确性[22] - 要实现出色的多智能体系统,需要能够模拟整个环境进行训练,而这在当前难以实现,但即使没有大量训练,聪明的模型也能零样本完成许多任务[23] 对话五:算力与算法:Scaling Law是信仰还是路径依赖? - 预训练的Scaling Law已带来巨大进展,但存在经济上的实践极限,因为用户不愿为每个token支付过高费用,且大模型可被蒸馏成更小模型[25] - 预训练的Scaling Law在解决某些问题(如GSM-8K数学数据集)时速度不可行,而强化学习推理能用小模型解决相同问题,显示出更高的数据效率[26] - 推理模型的Scaling Law(通过强化学习让模型运行更长时间以提升性能)受限于Transformer的上下文长度设计以及强化学习在长序列推理中的信用分配问题[27] - 推理的Scaling Law与预训练的Scaling Law有不同限制,这呼唤新的研究和可能的架构或强化学习算法改进[28] 对话六:具身智能的挑战:是数据问题?还是比特和原子的根本性差异? - 具身智能可能更接近于当前的大语言模型,数据效率正在提高,例如推理模型能用极少样本学会困难任务[29] - 实现具身智能需要一个在大量视频上预训练好的多模态模型作为基础,再结合强化学习进行推理训练,但需要调整架构以适应现实世界行动的速度要求[30] - 第一个版本的具身智能模型可能基于现有成果调整,但未来会出现数据和计算更高效的新一代模型[31] 对话七:强化学习:是超级优化器,还是科学发现的引擎? - 由强化学习驱动的推理模型可被视为一种数据效率更高的新架构或范式,能够从有限数据(如1000道数学题)中学习[32][33] - 强化学习只依赖一个奖励信号,若优化得当,模型有望从研究论文中学习并提出连专业人员都觉得新颖的想法,推动科学发现[33] - 该范式仍处于早期阶段(社区广泛关注约一年),需要更多尝试、发现和改进以提升效率和应用范围[34] 对话八:AI的组织跃迁:如何实现大规模Agent协作? - 实现大规模Agent组织(如成千上万个Agent协作)的最大挑战在于开发下一代推理模型,需要类似Transformer之于RNN的架构创新[35] - 当前推理模型顺序生成token的方式缺乏并行性,未来需要为并行过程提供更多信号,并结合新的架构来融入并行处理[36] 对话九:AI记忆的瓶颈:模型离真正的"原生记忆"还有多远? - 通过将记忆作为工具(如访问互联网或记忆库)并结合强化学习训练,模型可以有效地解决记忆问题,当前方案已相当可行[37][38] - 未来可能出现更优雅的记忆机制,如将记忆转化为连续的向量或通过类似LoRA的适配器微调模型权重,但这仍是待研究的问题[40] 对话十:大模型如何摆脱瞬时学习,而像人类一样持续学习? - 利用上下文学习作为持续学习的记忆是当前已实现的进展,模型将对话信息放入上下文进行处理,但效率并非最高[39] - 通过记忆工具和像LoRA这样的适配器微调技术,实质性修改权重已变得更加可行,为持续学习提供了基础,但如何优化算法仍是研究重点[40] - 下一代推理架构有望实现更并行的处理,推动模型在科学发现等领域的应用,未来并不遥远[41]
Want to Win in Any Industry? Grant Cardone Says You Need These 4 Things
Yahoo Finance· 2025-09-23 23:16
核心观点 - 房地产投资者Grant Cardone提出在任何行业取得成功需要具备四个关键特质 这些特质需要长期坚持才能产生有意义的结果 [1] 成功特质 - 第一个特质是拥有成功的渴望 渴望能帮助克服创业过程中的挑战性阶段 并使融入其他特质变得更容易 缺乏渴望将使创业从一开始就面临艰难战斗 [2][3] - 第二个特质是学习的意愿 需要通过学习书籍、视频和播客来了解行业和如何在该行业经营业务 例如仅会烹饪与成功经营餐厅所需的技能完全不同 在业务发展良好时持续学习能发现额外的创收途径 [4][5][6] - 第三个特质是永不放弃的能力 一旦确定可转化为盈利业务的机会就必须坚持 可以放弃已知无效的事物 但对有渴望、持续学习并采取行动接近目标的事情绝不能放弃 克服困难时期将使成功时刻更令人愉悦 [7][8]
外滩大会速递(1):萨顿提出AI发展新范式,强化学习与多智能体协作成关键
海通国际证券· 2025-09-12 10:47
行业投资评级 - 报告未明确给出具体的行业投资评级 [1][2][3][4][5][6] 核心观点 - 图灵奖得主理查德·萨顿提出AI发展正进入"经验时代",强调自主交互与环境反馈为核心,强化学习与多智能体协作是实现该愿景的关键路径 [1] - 当前机器学习多数局限于对人类已有知识的静态迁移,真正能创造新知识的系统需依靠智能体在与环境直接交互中持续生成数据 [1] - 社会对AI偏见、失业及生存风险的担忧被过度放大,应通过多智能体协作机制实现共赢 [1] - 萨顿提出"四条预测原则":价值观多元共存、人类将深入理解并创造智能、超级AI或人机增强系统终将超越人类智力、权力与资源将向最高效智能体集中且"替代"成为必然 [1] - 宇宙演进被划分为粒子、恒星、复制者与设计四个时代,人类核心使命在于推进"设计",AI是迈向"设计时代"不可或缺的动力 [1] 技术范式转变 - 数据定义从静态人类语料转变为动态智能体-环境交互轨迹,意味着学习目标与系统架构的根本重构:从被动拟合数据分布转向主动预测并控制自身观测输入的能力 [2] - AlphaGo自我博弈与AlphaProof生成式推理被视为"经验优先"方法论的有效验证 [2] - 产业落地需将模型从"信息消费"角色转变为可与环境实时交互、闭环试错并持续积累能力的"智能作用体" [2] - 企业需构建具备高频交互、在线评估与能力沉淀功能的智能体运营(Agent-Ops)体系,以实现新知识自动生成与跨任务迁移 [2] 技术瓶颈与研发重点 - 强化学习核心瓶颈并非模型参数规模,而在于时间维度与任务序列处理能力,具体表现为持续学习与元学习两大短板的制约 [3] - 持续学习需克服灾难性遗忘,实现动态表征与非平稳环境中的稳定收敛;元学习要求模型具备跨任务快速迁移与重组能力,训练评估单位需从"样本"升级为"任务" [3] - 这两项能力决定系统是否具备长期演进与泛化复用潜力:缺乏则仅适用于封闭短周期任务,突破则有望在开放环境中越用越强 [3] - 企业研发重心应从追求单点性能突破(SOTA)转向构建长周期评估体系、非平稳任务基准,以及推进记忆机制、规划架构与探索策略的工程化与系统集成 [3] 多智能体协作与治理 - "去中心化协作"不仅是技术架构选择,更是关乎系统治理机制的重要命题,需将机制设计理念引入AI系统工程实践 [4] - 多智能体协作类比市场与政府分工机制,其有效运作依赖明确激励、透明协议及可验证合约的支撑 [4] - 若"权力与资源向最高效智能体集中"成为趋势,需构建三方面基础制度:开放接口与可组合协议防范垄断、合作与对抗并存的博弈测试体系避免激励扭曲、可审计可追溯的责任认定工具量化协作外部性 [4] - 缺乏系统性治理设计,"去中心化"易流于概念,难以实现可持续可信赖的协作生态 [4] 人机协作与组织变革 - AI替代集中于任务层级而非完整岗位,企业应主动推进任务解构与流程重组,系统化布局人机协作体系 [5] - 具体路径包括:制定明确的人机分工框架形成"人类决策—AI探索—AI执行—人类审计"闭环机制、构建经验采集与策略回灌体系将交互数据沉淀为可复用策略资产、改革绩效管理机制以协同效率为导向的KPI替代单一产出指标 [5] - 该体系顺应AI替代带来的效率提升需求,为可持续人机协同提供制度化抓手,有助于企业在智能化转型中保持竞争力和控制力 [5]