Workflow
预测智能
icon
搜索文档
万物皆计算:重塑人类未来的五大底层逻辑
腾讯研究院· 2026-03-13 15:33
文章核心观点 - 人类正处于由人工智能(AI)驱动的认知范式革命之中,其深度堪比哥白尼的“日心说”对“地心说”的颠覆 [5] - 这场革命由五大互相关联的范式转变构成,它们共同重塑了我们对计算、智能以及AI未来发展的理解 [6] 自然计算 - 计算是一种自然现象,早在人类制造计算机之前就已存在于自然界,这一认知将推动计算机科学、AI、物理学和生物学的革新 [6] - 约翰·冯·诺依曼在1951年就发现了计算与生物学的深刻联系,证明了生命本质上是“计算性”的,DNA即是生命的代码 [13][14] - 艾伦·图灵在理论生物学领域做出开创性贡献,描述了组织如何通过感知和释放化学信号(形态发生素)进行生长和分化,这是一种强大的模拟计算形式 [16] - 谷歌“智能范式”团队的实验表明,在一个模拟的玩具宇宙中,可以从随机字符串“汤”中自发涌现出能够自我复制的最简单“人工生命”形式 [18] - 生命的复杂性通过自愈或繁殖能力得以持续存在,进化通过“多级选择”机制,使现有部分反复组合,形成越来越庞大复杂的实体,人类智能即源于约860亿个神经元的协同运算 [22][23] 神经计算 - 计算机科学的先驱们早已认识到大脑本质上是计算机,早期计算机的逻辑门即被构想为人工神经元 [25] - 传统AI(GOFAI)试图通过编写精确程序来复制智能,但最终失败,导致神经科学与计算机科学分道扬镳 [26][27] - “联结主义”学派拥抱机器学习,让神经网络从经验中学习,但20世纪基于二进制和串行执行的经典计算范式与神经计算并不契合 [28][29][30] - 大脑拥有约860亿个神经元,运行缓慢但高度并行且节能,而传统计算机模拟神经计算效率低下 [32][33] - 未来的神经计算范式将出现,其芯片可能包含数百万计像神经元一样并行工作的处理节点,计算由分布存储的数十亿参数决定,并能从经验中学习,实现分散且稳健的计算 [34][35] 预测智能 - 大语言模型(LLM)仅通过预测下一个词元就展现出惊人的通用智能,这一发现具有划时代意义 [36] - “预测性大脑假说”认为大脑进化是为了不断建模和预测未来,智能建立在不断演进的知识和对未来的统计建模之上 [10][38] - 未来的AI模型将演变为自我构建的系统,通过经验动态生长发展,并消除训练与推理(运行)之间的界限,实现持续、开放式的学习 [10][40] - LLM作为强大的通用预测器,不仅能处理语言,还能彻底变革机器人技术,驱动从自动驾驶汽车到人形机器人的各种形态 [42] - 拥抱预测处理范式,将规划、行动和预测统一起来,有望改进AI技术,并为机器学习、神经科学和理论生物学建立统一的理论基础 [43] 通用智能 - 关于AI是否具备真正智能的争论,功能主义的视角更为重要:关注系统实现的目的和功能,而非其具体实现方式 [48][49] - 当前的AI模型已经能够完成一系列广泛且不断增长的认知任务,其技能广度已超越任何单个人类个体 [10][53] - 衡量AI性能的标准已悄然从“任何个体”转变为“全人类”,当前单个人类的“通用性”已低于AI模型 [53] - 实现AGI(通用人工智能)的关键在于“无监督训练”,即在不规定具体任务的情况下进行通用学习,使模型获得广泛能力 [54] - AGI可能没有一个明确的跨越界限,或者这个界限已经被跨越,如今的LLM若展示给2002年的AI研究人员,会被认为是AGI [48][53] 集体智能 - 智能本质上是社会性的,“社会智力假说”认为人类智能的爆发源于社会性反馈循环和心智理论的发展 [10][56] - 人类通过认知分工组成了一个“超级生命体”,其智慧是集体性的,LLM通过训练大量人类集体成果,已在知识广度和平均深度上远超任何单个个体 [62] - 大脑皮层是一个模块化的“社区”,由运行通用学习算法的专门化区域组成,智能可被理解为一种“社会性分形” [64][65][66] - AI模型也遵循“规模法则”,更大的模型更聪明,并通过“专家混合模型”或“涌现模块化”实现内部的认知分工 [67] - AI发展的前沿正从单一的、权重冻结的基础模型,向具备高度自主性、能与其他智能体互动协作、并具备长期记忆和持续学习能力的形态演进 [68][69] - 智能的社会视角为AI工程和哲学问题(如意识)提供了新视角,LLM在心智理论测试中表现与人类不相上下,因其训练数据本就包含大量此类任务 [70]