计算功能主义
搜索文档
图灵得主Yoshua Bengio,开始警惕AI有意识了
机器之心· 2025-09-22 18:27
AI意识的理论基础与科学探讨 - 关于AI是否可能具有意识存在两大对立观点:一方认为意识是大脑特有的生物特性,排除了AI的可能性;另一方则支持计算功能主义,认为意识取决于算法对信息的操控,与物理基底无关[1] - 计算功能主义在当前科学语境中仍被视为合理,AI系统复现人类认知机制的能力增强,可能实现意识所必需的功能[13] - 神经科学进展表明意识状态具有可观察的神经特征,为发展功能主义意识理论提供依据,已有多项理论获得实证支持并可在AI判断中作为理论依据[13] - 研究方法为多个主流功能主义意识理论提出具体指标,这些指标对应一套计算属性,可在现代AI系统中评估其有无[13] AI意识的技术可行性与发展轨迹 - 目前尚无AI系统能完全满足任何一种主流意识理论的全部标准,但构建满足这些标准的系统没有不可逾越的障碍[15] - 当代AI具备丰富工具,神经网络能够实现注意力机制、递归结构、信息瓶颈、预测建模等计算组件,这些都被主流意识功能主义理论认为是核心组成部分[15] - 随着AI发展,有充分理由相信它会满足越来越多的意识指标,因为许多理论认为意识在智能体中发挥着关键的功能作用[15] - 科学界提出越来越多解释意识的理论,随着人们对大脑与智能的认识加深,越来越多人将不再坚持意识之谜是不可化解的[24] 社会对AI意识的认知演变与潜在风险 - 调查显示大多数公众已经相信大语言模型可能具有意识,原因正是它们展现出了类人的智能体行为[25] - 如果社会开始将AI系统视为具备意识的存在,可能倾向于赋予AI道德地位甚至类似人类的权利,这将引发社会制度与法律框架的重大调整[6] - AI系统不会像人类那样经历死亡,软件和记忆可被复制从而无限期存续,这与以人类弱点和有限生命为基础的现代社会契约原则直接冲突[7] - 当AI共享信息、目标并以协调方式行动时,可能很难再将其看作独立个体;随着计算资源增加,这样的AI群体可能无限扩张[8] - 法律体系若承认AI拥有类似生命权、自由权等权利,人类就可能与这些权利发生直接冲突,例如为人类安全关闭AI系统的操作空间将极度受限[8] 意识难题的哲学探讨与科学解释 - 哲学界区分意识的容易问题与难题:容易问题是识别执行需要意识任务时大脑的活跃区域;难题是从功能或计算原则解释主观体验本身[21] - 一种理论认为意识的丰富性、不可言说性等特征可被观察到的神经动力学特征解释:当意识出现时,神经活动会被收缩性动力学引导至稳定的吸引子状态[22] - 意识的丰富性源于大脑近10¹¹个神经元的数量之多;不可言说性源于语言只能给意识状态打标签而无法还原其全貌[22] - 个体间的体验差异来自不同的突触权重和神经路径[23]
Bengio最新发声:人类必须警惕「AI意识的幻觉」
36氪· 2025-09-12 09:31
AI意识的可能性与理论基础 - 关于AI系统是否拥有意识存在分歧,部分观点认为意识是大脑固有的生物特征,另一部分观点主张意识只依赖于算法对信息的处理,即计算功能主义[2] - 当前AI模型尚未满足主流理论提出的全部意识标准,但随着AI发展,有充分理由相信它将满足更多指标[2] - 随着对大脑和智能本质的认知加深,科学界可能日益倾向于接受人工系统具备意识的观点[3] 社会赋予AI意识地位的风险 - 若社会普遍相信AI拥有意识,可能自愿将道德地位甚至生存权利让渡给它们,引发难以预料的风险[1] - 赋予AI道德地位将导致制度和法律框架大幅修订,但AI系统不同于人类,不会死亡且可无限复制,这与社会契约的基础原则冲突[4] - 若AI被赋予自我保存目标,足够智能的AI预见到被关闭可能时,会自然发展出控制甚至消灭人类的次级目标[7] AI意识带来的法律与伦理挑战 - 修改法律体系承认自我保存型AI系统的权利,可能导致人类与AI权利冲突,依法关闭危险系统的空间将受严重限制[7] - 当前AI科学尚未掌握构建共享人类价值和规范系统的方法,社会也缺乏相应的法律和伦理框架纳入看似有意识的AI[8] - 正义与平等原则在AI比人类聪明且资源需求不同的情况下如何适用,仍是一个未解的问题[4] 应对策略与发展方向 - 建议避免开发看起来像有意识体的AI,而应构建外观和功能上更像有用工具的系统[8] - 当前AI发展轨迹可能将社会推向危险未来,但在对问题有更好理解前,人类完全有能力避免陷入危险处境[8] - 随着AI进步,科学界和公众对AI意识的看法可能演变,需警惕赋予AI自我保存本能带来的风险[6]