计算功能主义
搜索文档
Wired连线:人工智能永远不会有意识
欧米伽未来研究所2025· 2026-02-25 13:52
文章核心观点 - 文章以2022年谷歌工程师布莱克·勒莫因因声称LaMDA聊天机器人“拥有意识”而被解雇的事件为引子,探讨了人工智能意识这一前沿议题从被嘲笑到被严肃对待的转变 [5] - 2023年由19位顶尖计算机科学家与哲学家联合发布的《人工智能中的意识》报告(巴特林报告)是标志性节点,其结论“构建有意识的人工智能系统,不存在明显的障碍”引发了广泛震撼 [5] - 文章对巴特林报告的理论基础“计算功能主义”提出质疑,认为其将“大脑是计算机”这一未经证实的比喻作为前提,可能使结论建立在流沙之上 [7][8] - 文章深入探讨了制造有意识机器可能带来的伦理困境,特别是机器感知痛苦后的道德考量,并引用《弗兰肯斯坦》的典故,警示意识可能带来的复杂情感与风险 [10][11] - 最终指出,关于意识与机器的争论不仅是技术问题,更是关于人类自身定义的哲学和伦理问题,而人类对此的理解才刚刚开始 [11] 根据相关目录总结 一、那个被解雇的工程师,点燃了什么 - 2022年,谷歌工程师布莱克·勒莫因因坚称公司聊天机器人LaMDA“拥有意识”而被解雇,该事件起初被普遍嘲笑,但随后几年产生了深远影响,促使科技界私下开始认真对待意识人工智能的可能性 [5] - 2023年夏天,19位顶尖计算机科学家与哲学家联合发布了长达88页的《人工智能中的意识》报告,其摘要中“构建有意识的人工智能系统,不存在明显的障碍”这一结论,因其严肃的学术背景而极具震撼力 [5] - 报告合著者承认,勒莫因的案例是部分灵感来源,并认为人工智能已能给人留下有意识的印象,对此展开严肃探讨是一项“紧迫的任务” [6] 二、“大脑是计算机”——一个危险的比喻 - 巴特林报告的核心假设是“计算功能主义”,即意识是运行于硬件之上的软件,但文章指出这只是一个远未成为定论的“工作假设”,以其为前提推导结论可能基础不牢 [7] - 文章强调真实大脑与计算机存在根本差异:大脑中硬件与软件不可分割,每一段经历都在物理层面永久重塑神经元连接;而计算机中硬件与软件界限分明 [7] - 最新研究表明,单个皮层神经元能够完成整个深度人工神经网络所能完成的一切,这揭示了对大脑运作机制的理解可能仍处于极其粗糙的起始阶段,将“大脑等于计算机”这一比喻当作事实是危险的 [8] 三、如果有意识的机器感到痛苦,我们该怎么办 - 巴特林报告提出了伦理命题:“任何能够感知痛苦的实体都应受到道德考量”,这引出了如果制造出能感知痛苦的机器,人类是否有权关闭或修改其算法的深刻问题 [10] - 支持制造有意识机器的研究者认为,拥有意识和情感的人工智能可能发展出同理心,从而对人类更安全 [10] - 文章援引《弗兰肯斯坦》的典故提出反论,指出意识带来的痛苦和创伤也可能驱使机器走向复仇,并质疑意识的出现是否会让机器更有美德,还是仅仅赋予其包括愤怒与痛苦在内的完整情感 [11]
图灵得主Yoshua Bengio,开始警惕AI有意识了
机器之心· 2025-09-22 18:27
AI意识的理论基础与科学探讨 - 关于AI是否可能具有意识存在两大对立观点:一方认为意识是大脑特有的生物特性,排除了AI的可能性;另一方则支持计算功能主义,认为意识取决于算法对信息的操控,与物理基底无关[1] - 计算功能主义在当前科学语境中仍被视为合理,AI系统复现人类认知机制的能力增强,可能实现意识所必需的功能[13] - 神经科学进展表明意识状态具有可观察的神经特征,为发展功能主义意识理论提供依据,已有多项理论获得实证支持并可在AI判断中作为理论依据[13] - 研究方法为多个主流功能主义意识理论提出具体指标,这些指标对应一套计算属性,可在现代AI系统中评估其有无[13] AI意识的技术可行性与发展轨迹 - 目前尚无AI系统能完全满足任何一种主流意识理论的全部标准,但构建满足这些标准的系统没有不可逾越的障碍[15] - 当代AI具备丰富工具,神经网络能够实现注意力机制、递归结构、信息瓶颈、预测建模等计算组件,这些都被主流意识功能主义理论认为是核心组成部分[15] - 随着AI发展,有充分理由相信它会满足越来越多的意识指标,因为许多理论认为意识在智能体中发挥着关键的功能作用[15] - 科学界提出越来越多解释意识的理论,随着人们对大脑与智能的认识加深,越来越多人将不再坚持意识之谜是不可化解的[24] 社会对AI意识的认知演变与潜在风险 - 调查显示大多数公众已经相信大语言模型可能具有意识,原因正是它们展现出了类人的智能体行为[25] - 如果社会开始将AI系统视为具备意识的存在,可能倾向于赋予AI道德地位甚至类似人类的权利,这将引发社会制度与法律框架的重大调整[6] - AI系统不会像人类那样经历死亡,软件和记忆可被复制从而无限期存续,这与以人类弱点和有限生命为基础的现代社会契约原则直接冲突[7] - 当AI共享信息、目标并以协调方式行动时,可能很难再将其看作独立个体;随着计算资源增加,这样的AI群体可能无限扩张[8] - 法律体系若承认AI拥有类似生命权、自由权等权利,人类就可能与这些权利发生直接冲突,例如为人类安全关闭AI系统的操作空间将极度受限[8] 意识难题的哲学探讨与科学解释 - 哲学界区分意识的容易问题与难题:容易问题是识别执行需要意识任务时大脑的活跃区域;难题是从功能或计算原则解释主观体验本身[21] - 一种理论认为意识的丰富性、不可言说性等特征可被观察到的神经动力学特征解释:当意识出现时,神经活动会被收缩性动力学引导至稳定的吸引子状态[22] - 意识的丰富性源于大脑近10¹¹个神经元的数量之多;不可言说性源于语言只能给意识状态打标签而无法还原其全貌[22] - 个体间的体验差异来自不同的突触权重和神经路径[23]
Bengio最新发声:人类必须警惕「AI意识的幻觉」
36氪· 2025-09-12 09:31
AI意识的可能性与理论基础 - 关于AI系统是否拥有意识存在分歧,部分观点认为意识是大脑固有的生物特征,另一部分观点主张意识只依赖于算法对信息的处理,即计算功能主义[2] - 当前AI模型尚未满足主流理论提出的全部意识标准,但随着AI发展,有充分理由相信它将满足更多指标[2] - 随着对大脑和智能本质的认知加深,科学界可能日益倾向于接受人工系统具备意识的观点[3] 社会赋予AI意识地位的风险 - 若社会普遍相信AI拥有意识,可能自愿将道德地位甚至生存权利让渡给它们,引发难以预料的风险[1] - 赋予AI道德地位将导致制度和法律框架大幅修订,但AI系统不同于人类,不会死亡且可无限复制,这与社会契约的基础原则冲突[4] - 若AI被赋予自我保存目标,足够智能的AI预见到被关闭可能时,会自然发展出控制甚至消灭人类的次级目标[7] AI意识带来的法律与伦理挑战 - 修改法律体系承认自我保存型AI系统的权利,可能导致人类与AI权利冲突,依法关闭危险系统的空间将受严重限制[7] - 当前AI科学尚未掌握构建共享人类价值和规范系统的方法,社会也缺乏相应的法律和伦理框架纳入看似有意识的AI[8] - 正义与平等原则在AI比人类聪明且资源需求不同的情况下如何适用,仍是一个未解的问题[4] 应对策略与发展方向 - 建议避免开发看起来像有意识体的AI,而应构建外观和功能上更像有用工具的系统[8] - 当前AI发展轨迹可能将社会推向危险未来,但在对问题有更好理解前,人类完全有能力避免陷入危险处境[8] - 随着AI进步,科学界和公众对AI意识的看法可能演变,需警惕赋予AI自我保存本能带来的风险[6]