Workflow
Generalized Ability
icon
搜索文档
OpenAI前首席科学家Ilya Sutskever:规模神话的终结,回到研究时代
36氪· 2026-01-04 13:13
行业核心观点 - 当前AI行业正从依赖扩大模型规模的“规模时代”回归到注重基础创新的“研究时代” [26][27][36] - 当前大型语言模型存在根本性缺陷,即在基准评测中表现优异但在真实世界应用中泛化能力不足,导致经济影响显著滞后 [7][8][37] - 实现通用人工智能或超级智能的时间线预计在5到20年之间,这比部分行业领袖的预测更为保守但仍代表剧烈变革 [33][34] 行业现状与挑战 - 全球对AI的投资规模巨大,例如将GDP的约1%投入该领域,但公众对其影响的感知仍较为抽象和滞后 [5][6] - 行业面临的核心困惑是模型在评测任务上表现卓越(如解决相当难的题目)与实际解决现实问题能力(如修复代码漏洞时陷入循环)之间存在巨大鸿沟 [8][37] - 人类研究者在设计强化学习训练环境时,过度关注提升基准测试分数,可能导致模型成为“奖励黑客”,即擅长考试但缺乏解决实际问题的稳健性 [12][13] 技术瓶颈与研究方向 - 模型泛化能力显著弱于人类,体现在样本效率低下(需要更多数据)和可教性差(难以通过简单交流进行指导) [22] - 人类拥有稳健的“价值函数”(可能与情感系统相关),能在决策过程中提供即时反馈,这是当前模型所缺乏的关键能力 [18][19][21] - 未来的突破可能依赖于理解并复现人类那种与生俱来的、能在全新领域(如数学、编程)快速可靠学习的能力 [22][23] 公司战略与动向 - Ilya Sutskever创立的新公司Safe Superintelligence (SSI)已融资30亿美元,估值达320亿美元,但此前战略高度保密,专注于直接研发超级智能 [2][28] - SSI最初的计划是避开产品市场竞争,专注于研究,但公司可能调整策略,在达成最终目标前发布一些演示性成果,以帮助社会理解和适应强大的AI [28][29][38] - 公司领导层强调研究“品位”的重要性,即追求基于对人类的正确理解、兼具美感、简洁和优雅的技术灵感 [30][31][32] 行业发展阶段判断 - 行业对预训练“规模定律”的理解被比喻为古代文明对太阳运动的测量:测量精确但原理不明,暗示单纯扩大规模已接近收益递减 [24][25][26] - 从2012年至2020年被定义为“研究时代”,2020年至2025年(可能有误差)是“规模时代”,而当前正再次回归“研究时代”,但计算资源已远胜从前 [26][27] - 当规模扩大带来的边际收益急剧下降(如花费10倍资金仅得1.1倍提升)时,行业必须重新聚焦基础研究 [27]
Ilya罕见发声:大模型“大力出奇迹”到头了
36氪· 2025-11-26 14:54
AI发展范式转变 - 当前主流的“预训练+规模化”路线已遇到瓶颈,行业需要重新关注研究范式本身的重构[1] - 预训练范式最大的优势在于数据量极其庞大且无需纠结数据选择,但最终会遇到数据有限的硬上限[30][51] - 规模化时代(2020-2025)正在转向新的科研时代,但此次拥有巨型计算机作为工具[52][53] 模型泛化能力问题 - 当前模型在评测表现与经济实际影响之间存在巨大落差,模型泛化能力远不如人类[14][17][56] - 模型需要比人类多得多的数据才能学会一项能力,且让模型理解任务目标比人类困难得多[58] - 人类在语言、数学、编程等近期才出现的能力上依然表现稳健,这可能源于人类学习机制本身的高效率[62][63] 训练方法效率 - 强化学习天生消耗大量算力,需要极长迭代过程且每次迭代学习增益很小[54] - 价值函数能让强化学习更高效,但当前强化学习训练方法简单,缺乏合适的机器学习类比[38][55] - 自博弈提供了一种仅依靠计算而非数据创建模型的方法,但传统形式适用范围狭窄[146] 行业竞争格局 - 规模化时代导致公司数量远超创意数量,所有公司都在做同一件事[70] - 真正用于纯研究的资源扣除产品推理服务后并没有想象中高,SSI资金绝大部分用于研究[77][78] - 未来可能出现多家公司同时训练类人学习智能体,在不同分支上展开搜索的局面[139][140] 技术发展方向 - 未来的超级智能更像是能够学习完成所有工作的“可成长心智”,而非掌握所有技能的成熟系统[91][92] - 关键问题是构建可靠的概括机制,这是当前最核心最棘手的问题[56][115] - 缺乏多样性主要来自预训练,差异更多出现在强化学习和后训练阶段[145] 经济影响预期 - AI将渗透进整个经济体系,带来非常强的经济动力,冲击会非常明显[12] - 广泛部署的AI可能引发经济快速增长,不同国家因监管尺度不同会出现增长差异[96][97] - 停滞情形下各公司状况可能非常相似,但仍可能获得惊人收入,只是利润不高[133]
Ilya罕见发声:大模型「大力出奇迹」到头了
量子位· 2025-11-26 08:55
当前AI发展范式转变 - AI发展正从"规模化时代"重新转向"科研时代",主流"预训练+Scaling"路线已明显遇到瓶颈[1][3] - 行业过去几年普遍遵循"继续扩大"策略,但仅靠规模扩大100倍难以带来根本性转折[56][57] - 预训练最大优势在于数据量庞大且无需纠结数据选择,但最终会遇到数据有限的硬上限[33][55] 模型能力与泛化问题 - 当前模型在评测表现与经济实际影响之间存在巨大落差,模型泛化能力远不如人类[17][21][61] - 模型会出现反复犯同样错误的情况,如编程中在两个bug间来回切换[17] - 人类在语言、数学、编程等近期出现的能力上仍比模型更强,表明人类拥有更基础的通用学习能力[68][69] 训练方法演进 - 行业正从预训练规模化转向强化学习规模化,RL消耗的计算量可能已超过预训练[58] - 价值函数能让强化学习更高效,但当前强化学习训练方法简单且资源利用效率低[42][58] - 预训练数据包含人类各种活动经验,是"人类把世界投射到文本上的那一层"[33] 行业竞争格局 - 规模化时代导致公司数量远超创意数量,所有公司做同一件事挤压创新空间[76] - 真正用于纯研究的资源比外界想象少,大公司算力预算主要用于推理服务[81][84] - 未来可能出现多家公司同时拥有超级智能,技术路径和战略最终会趋同[132][136] 未来发展方向 - 关键突破在于解决模型泛化能力不足的核心问题,而非单纯扩大规模[61] - 持续学习能力比静态知识储备更重要,超级智能应是能够学习任何工作的"可成长心智"[94][95] - 构建"关爱有感知生命的AI"可能比只关心人类的AI更容易实现,因为AI本身也将具备感知能力[106][107]