自监督学习(Self - Supervised Learning)
搜索文档
LeCun团队新论文:模仿人类智能搞AI,照猫画虎死胡同
量子位· 2026-03-09 18:05
文章核心观点 - 图灵奖得主Yann LeCun提出,AI发展的未来方向不应是模仿人类的通用人工智能,而应是追求**超人类适应性智能**,其核心是**系统适应新任务的速度**,而非掌握技能的数量[2][3][5] - 将人类智能作为AI发展的基准和目标是错误的,这限制了AI的能力发展,使其局限于以人类为中心的任务空间[10][11][12] - 人类的“通用”智能本质上是生物进化为生存而优化的结果,存在认知盲区,并非真正的通用,因此AI复制人类的“生存型智能工具箱”是一条错误的技术路线[18][20][30] - 智能进化的常态是**专业化**,通过任务特定的架构和训练实现超人类能力,强行追求通用性在工程和理论上往往是低效的[31][34][42] AI发展目标的转变 - 发展目标发生三个关键变化:**不再以人类为参照系**、**拥抱专业化以实现超人类能力**、衡量智能的核心指标变为**学习新技能的速度**[3][6] - 过去的发展逻辑是把人类当作智能标尺,例如图灵测试,但LeCun团队认为这限制了通往超人类能力的路径[8][9][10] - 更合理的路径是让AI围绕明确目标,通过**自我博弈、进化搜索和大规模仿真**持续优化能力[13] 对人类“通用性”的批判 - 人类智能是进化塑造的生存工具,擅长视觉感知、行走等对生存至关重要的能力,但在计算复杂概率、高维优化等任务上表现远不如计算机[19][20][23] - 莫拉维克悖论指出:人类觉得简单的事情对计算机很难,而人类觉得困难的事情对计算机却很容易[26][27][28] - 所谓“通用人工智能”很大程度上是一种错觉,源于人类无法看见自己的生物学盲区[25] 专业化是智能进化的常态 - 从生物学角度看,在资源有限、环境复杂的情况下,进化会推动系统向**特定能力方向优化**[32] - 在AI领域,如果某个领域的任务对成本、精度、可靠性要求高,任何不达标的模型都会被更专业的系统取代[34] - **AlphaFold**是专业化的典型成功案例,它通过任务特定的架构、数据和训练策略,在蛋白质结构预测上实现了巨大突破[35][37] - 机器学习的基本规律是:算法的成功来自于它与问题结构的匹配,强行让一个模型处理多个不同任务可能导致所有任务都表现平平[38][39] - 多任务学习可能存在**负迁移**问题,即不同任务的梯度互相冲突,拖累整体性能[40][41] 实现SAI的技术路线 - 技术路线基于三个关键词:**自监督学习**、**世界模型**、**模块化系统**[43] - **自监督学习**不依赖人类标注,而是从大量真实世界数据中学习底层结构[44] - **世界模型**让AI在内部构建一个“世界的模拟器”,使其能够预测未来、进行规划,从而在没有明确训练的情况下完成新任务[45][46] - **模块化架构**意味着未来AI更可能是一系列相互协作的系统,而非一个万能模型,论文明确反对“统治一切”的单一模型架构,尤其是自回归范式的下一个token预测[47][48]