行业核心观点 - 当前AI行业正从依赖扩大模型规模的“规模时代”回归到注重基础创新的“研究时代” [26][27][36] - 当前大型语言模型存在根本性缺陷,即在基准评测中表现优异但在真实世界应用中泛化能力不足,导致经济影响显著滞后 [7][8][37] - 实现通用人工智能或超级智能的时间线预计在5到20年之间,这比部分行业领袖的预测更为保守但仍代表剧烈变革 [33][34] 行业现状与挑战 - 全球对AI的投资规模巨大,例如将GDP的约1%投入该领域,但公众对其影响的感知仍较为抽象和滞后 [5][6] - 行业面临的核心困惑是模型在评测任务上表现卓越(如解决相当难的题目)与实际解决现实问题能力(如修复代码漏洞时陷入循环)之间存在巨大鸿沟 [8][37] - 人类研究者在设计强化学习训练环境时,过度关注提升基准测试分数,可能导致模型成为“奖励黑客”,即擅长考试但缺乏解决实际问题的稳健性 [12][13] 技术瓶颈与研究方向 - 模型泛化能力显著弱于人类,体现在样本效率低下(需要更多数据)和可教性差(难以通过简单交流进行指导) [22] - 人类拥有稳健的“价值函数”(可能与情感系统相关),能在决策过程中提供即时反馈,这是当前模型所缺乏的关键能力 [18][19][21] - 未来的突破可能依赖于理解并复现人类那种与生俱来的、能在全新领域(如数学、编程)快速可靠学习的能力 [22][23] 公司战略与动向 - Ilya Sutskever创立的新公司Safe Superintelligence (SSI)已融资30亿美元,估值达320亿美元,但此前战略高度保密,专注于直接研发超级智能 [2][28] - SSI最初的计划是避开产品市场竞争,专注于研究,但公司可能调整策略,在达成最终目标前发布一些演示性成果,以帮助社会理解和适应强大的AI [28][29][38] - 公司领导层强调研究“品位”的重要性,即追求基于对人类的正确理解、兼具美感、简洁和优雅的技术灵感 [30][31][32] 行业发展阶段判断 - 行业对预训练“规模定律”的理解被比喻为古代文明对太阳运动的测量:测量精确但原理不明,暗示单纯扩大规模已接近收益递减 [24][25][26] - 从2012年至2020年被定义为“研究时代”,2020年至2025年(可能有误差)是“规模时代”,而当前正再次回归“研究时代”,但计算资源已远胜从前 [26][27] - 当规模扩大带来的边际收益急剧下降(如花费10倍资金仅得1.1倍提升)时,行业必须重新聚焦基础研究 [27]
OpenAI前首席科学家Ilya Sutskever:规模神话的终结,回到研究时代
36氪·2026-01-04 13:13