Workflow
玻尔兹曼机
icon
搜索文档
我和辛顿一起发明了复杂神经网络,但它现在需要升级
36氪· 2025-12-15 07:26
而83岁的谢诺夫斯基,依然在实验室里追问那个问题。 也许没有人比他更适合回答今天AI缺失的那些碎片。他见证了神经网络从"异端"到"改变世界"的全过 程;他既懂物理学的简洁优雅,也懂生物学的复杂混沌;他和辛顿一起打开了AI的大门,又眼看着这 扇门后的世界变得越来越陌生。 1984年的一天,物理学家特伦斯·谢诺夫斯基和心理学家杰弗里·辛顿坐在实验室里,盯着黑板上的方程 发呆。那是AI的第二个寒冬,神经网络陷入僵局。人们都知道多层网络更强大,但没人知道怎么训练 它。 "如果我们把神经网络想象成一团气体呢?"谢诺夫斯基突然说。 这个疯狂的想法最终变成了玻尔兹曼机,这是一个用统计物理学重新定义"学习"的数学模型。它证明了 只要找到合适的能量函数,神经网络就能像气体从高温降到低温一样,自发地调整到最优状态。 这成为现代深度学习的理论基石之一。 但两人后续的志趣却互相有所偏离。辛顿发现了更实用的反向传播算法,带领深度学习走出寒冬,最终 迎来ChatGPT主导的AI时代。而谢诺夫斯基选择了回到神经科学实验室,用几十年时间解剖大脑的每一 个回路,试图回答那个最初的问题:大脑究竟是如何工作的? 40年后,辛顿因玻尔兹曼机获得20 ...
AI教父Hinton诺奖演讲首登顶刊,拒绝公式,让全场秒懂「玻尔兹曼机」
36氪· 2025-09-03 19:29
霍普菲尔德网络与玻尔兹曼机原理 - 霍普菲尔德网络由二进制神经元构成,神经元间通过对称加权连接,其全局状态被称为“配置”,并由“优度”衡量,而能量是优度的负值[5][6] - 网络通过每个神经元的局部计算来降低能量,最终稳定在能量最低点,但可能存在多个能量最低点,具体停留位置取决于起始状态和神经元更新序列[6][8] - 该网络可将能量最低点与记忆关联,实现“内容可寻址存储”,即输入不完整的记忆片段后,网络能通过应用决策规则补全完整记忆[11][12] 从记忆存储到感官输入解释 - 网络被扩展用于构建对感官输入的解释,而不仅是存储记忆,通过将网络分为“可见神经元”和“隐藏神经元”,网络的配置能量代表了该解释的劣度,目标是获得低能量的解释[13][14][15] - 以内克尔立方体为例,网络通过设置连接强度,可以形成两个稳定的状态,分别对应图像的三维诠释(凸面体和凹面体),体现了感知光学原理[19][23][25] 解决搜索与学习问题的方法 - 针对网络可能陷入局部最优的“搜索问题”,引入带有噪声的“随机二进制神经元”,通过概率性决策让神经网络能够从较差的解释“爬坡”到更好的解释[27] - 通过随机更新隐藏神经元,网络会趋近于“热平衡”,此时隐藏神经元的状态构成对输入的一种诠释,低能量状态出现的概率更高,遵循玻尔兹曼分布[29][30][31] - 针对“学习问题”,Hinton与Sejnowski在1983年提出了玻尔兹曼机学习算法,该算法包含“清醒阶段”(向网络呈现真实图像并增加同时激活神经元的连接权重)和“睡眠阶段”(让网络自由“做梦”并减少同时激活神经元的连接权重)[36][38] 玻尔兹曼机的核心创新与演变 - 玻尔兹曼机的核心创新在于权重调整基于两种相关性差异:网络在“清醒”时与“做梦”时两个神经元共同激活频率的差异,这与反向传播算法依赖前向和反向通路传递不同信息的方式截然不同[41][42][44] - 由于达到热平衡速度缓慢,通过消除隐藏单元间的连接发展出受限玻尔兹曼机(RBM),并引入“对比散度”方法加速学习,该方法通过将数据输入可见单元、并行更新隐藏神经元、重构可见单元等步骤实现[44][46][48] - RBM在实践中取得成果,例如Netflix公司曾使用RBM根据用户偏好推荐电影并赢得预测大赛[50] 堆叠RBM与深度学习突破 - 为构建多层特征检测器,2006年提出“堆叠RBM”方法,通过将第一个RBM的隐藏层激活模式作为数据训练下一个RBM,以此类推,创建出特征的层级结构和越来越抽象的表示[50][51][52][53] - 堆叠完成后添加最终层进行监督学习(如图像分类),这使得神经网络学习速度远超随机初始化,并且泛化能力更好,因为大部分学习在无监督情况下进行[55] - 在2006-2011年期间,堆叠RBM被用于预训练前馈神经网络再进行反向传播微调,2009年其被证明在语音识别中效果显著,2012年基于此的系统在谷歌安卓设备上大幅改善了语音识别性能[56][58] 玻尔兹曼机的历史角色与未来展望 - 玻尔兹曼机被比喻为“历史的酶”,它催化了深度学习的突破,一旦证明了深度神经网络的潜力,研究人员开发出其他方法后,它便逐渐退出主流[58] - 利用“睡眠”阶段进行“反学习”的算法被认为更具生物学合理性,可能避免反向传播的非对称通路,未来在理解大脑如何学习时,“睡眠”中的“反学习”可能仍是关键一环[59]
意识在哪儿?
36氪· 2025-05-06 12:04
玻尔兹曼大脑理论 - 核心观点:宇宙熵的随机涨落可能偶然形成拥有完整记忆与自我意识的孤立大脑,而非演化出复杂低熵宇宙 [1][2] - 概率比较:直接产生孤立大脑的概率远高于演化出有序宇宙的概率,因后者需克服巨大熵增 [2][3] - 推论:人类可能是短暂存在的玻尔兹曼大脑,记忆与感知皆为随机涨落的虚幻产物 [5][6] 意识与物理哲学 - 随机性挑战:玻尔兹曼大脑暗示意识为随机涨落的偶然现象,缺乏物理根基 [8][9] - 决定论对比:拉普拉斯妖模型认为意识完全由物理定律预先决定,否定自由意志 [13][15] - 共同困境:随机性与决定论均消解自由意志,意识在两种框架下均无自主性 [15][16] 秩序涌现与进化视角 - 热力学基础:玻尔兹曼与达尔文理论结合,提出生命通过争夺负熵维持有序结构 [19][20] - 意识定位:意识可能是进化中为高效利用负熵而涌现的精密功能 [21][22] - 宇宙意义:意识或为宇宙自我观测与意义赋予的载体,超越随机与决定的二元对立 [22][25] 人工智能的启示 - 玻尔兹曼机:辛顿受统计物理启发设计随机神经网络,模拟从无序到有序的学习过程 [28][31] - 工程实践:玻尔兹曼机通过数据驱动迭代收敛,为意识研究提供可操作模型 [32][38] - 理论对比:玻尔兹曼机体现渐进式结构积累,与玻尔兹曼大脑的"一次性奇迹"形成反差 [36][37] 意识研究的多元理论 - 认知科学:霍夫施塔特"奇异回环"理论视意识为自指性信息系统的动态属性 [42] - 计算主义:图灵派将意识等同于算法过程,支持强AI可能性 [42] - 整合信息理论:托诺尼用Φ值量化意识强度,关联系统内部因果结构 [44][45] 意识的本体论探讨 - 功能主义:丹尼特将意识类比为大脑的"用户界面",屏蔽底层复杂性以简化决策 [49][51] - 存在形式:意识或为神经网络动态模式的功能性表征,非独立于物理过程 [51][52] - 终极意义:意识能力本身即宇宙奇迹,体现为感知、连接与创造意义的主观体验 [72][74]