谷歌前研究员:仅靠规模化无法实现AGI
阿尔法工场研究院·2026-03-31 19:18
通用人工智能的定义与目标 - 真正的AGI应具备与人类相似的“技能获取效率”,即面对任何新问题或新领域时,能以相似的效率和极少量的训练数据与计算迅速理解并掌握[2] - 预测行业可能先实现“自动化大部分经济工作”的AGI定义,之后才实现更强调学习效率的定义[2] 当前AI范式的局限性与新路径探索 - 当前以深度学习和大语言模型为主的技术栈存在根本局限性,高度依赖海量训练数据进行模式匹配,在代码、数学等可验证领域表现出色,但在写作等难以验证的领域进步缓慢[2] - 行业正探索与深度学习完全不同的新研究范式,例如程序合成,旨在用尽可能简洁的符号模型替代参数化曲线进行学习,以实现更高的数据效率和模型最优性[2] 对AGI技术形态与时间线的预测 - 实现AGI的“流体智能引擎”本身会是一个非常精简的代码库,可能少于1万行代码,能够运行在兆字节级别,但其运作所需的知识库会庞大得多[3] - 基于当前进展速度和投资规模,预测AGI可能在2030年左右实现,届时可能对应Arc-AGI v6或v7的发布[3] 对研究者和创业者的建议 - 认为当前行业过于集中于LLM技术栈是反生产力的,应鼓励更多不同的研究路径,例如遗传算法、状态空间模型,甚至建议研究者去阅读七八十年代的旧研究思路[4] - 一个有望成功的AI系统,其能力提升必须能够脱离人类工程师的持续直接干预,能够通过增加计算或数据等资源实现自主扩展和改进[4]