global workspace theory (GWT)

搜索文档
从语言到意识的“一步之遥”,AI究竟要走多远?
腾讯研究院· 2025-06-26 15:58
人工智能发展现状与挑战 - 当前大语言模型(LLM)已展现AGI的形式能力,能处理支离破碎或口语化语句并生成标准回复,但缺乏持续学习能力,训练后知识库即冻结[3][5] - LLM仅模仿大脑语言功能,缺失感知、记忆、导航等关键认知维度,被比喻为"瑞士军刀中的单一螺丝锥"[6] - OpenAI的GPT模型推测采用16个神经网络模块协同工作,2023年Mistral和Deepseek发布的混合专家模型(MoE)通过模块化提升计算效率[7] 模块化架构与技术突破 - 模块化系统面临协调难题,信息跨模块传递机制尚不明确,训练中可能出现"鸡与蛋悖论"导致崩溃[7][12] - 软注意力机制通过连续权重分配实现选择性聚焦,成为Transformer架构核心创新,但需避免硬性选择导致的训练中断[17][18] - 生成流网络引入周期性硬选择机制,采用双向训练解决突变节点问题,其高阶表征与人类神经活动高度相似[19] 全局工作空间理论应用 - 全局工作空间理论(GWT)认为意识是模块间信息交换平台,类似企业会议协调多模块协作[9][11] - 迪昂团队发现大脑模块每0.1秒进行信息竞赛,获胜信息进入全局工作空间接受集体审议[11] - Meta杨立昆提出判别式网络构建抽象表征,其配置器机制与GWT工作空间功能高度吻合[27][28] 跨模态与翻译技术 - 潜空间对齐技术通过旋转不同语言的词云实现无词典翻译,可拓展至图像-文本多模态转换[24][25] - 谷歌感知器模型将多模态数据融合至统一潜空间,自发呈现GWT核心特征如模块筛选与工作记忆[25] 意识本质的学术争议 - 迪昂认为具备自我监控的AI系统可能产生意识,而GWT创始人巴尔斯强调意识是生命体特有属性[30] - 预测加工理论主张意识源于未来事件预测模型,整合信息理论则将意识归因于生物网络结构效率[31] - 行业共识认为智慧是多元能力组合,需融合抽象思维、社会理解等模块才能实现真正类人智能[32]