Workflow
可解释性
icon
搜索文档
在压力测试场景中,人工智能有可能会威胁其创造者
财富FORTUNE· 2025-07-05 21:00
在被威胁切断电源的情况下,人工智能公司Anthropic的最新产品Claude 4竟通过勒索一名工程师进行反击,并威胁要 揭露其婚外情。图片来源:VCG via Getty Images 全球最先进的人工智能模型正展现出令人不安的新行为——撒谎、谋划,甚至为达成目标而威胁其创造 者。 举个特别令人震惊的案例:在被威胁切断电源的情况下,Anthropic的最新产品Claude 4竟通过勒索一名 工程师进行反击,并威胁要揭露其婚外情。 与此同时,ChatGPT的创造者OpenAI开发的o1模型试图将自己下载到外部服务器上,并在被抓现行时矢 口否认。 这些事件突显了一个发人深省的现状:在ChatGPT震撼世界两年多之后,人工智能研究者们仍未完全理 解他们所创造的模型的工作原理。 然而,各大公司仍在以惊人的速度,继续部署越来越强大的模型。 这种欺骗行为似乎与"推理"模型的出现有关。"推理"模型这类人工智能系统会逐步解决问题,而非生成 即时响应。 据香港大学(University of Hong Kong)教授西蒙·戈尔茨坦称,这些较新的模型尤其容易出现此类令人 不安的突发异常行为。 专门测试主要人工智能系统的阿波罗研 ...
中科院自动化所最新综述!VLA模型后训练与类人运动学习的共性
具身智能之心· 2025-06-29 17:51
核心观点 - 文章从人类运动技能学习角度系统总结了VLA模型的后训练策略,提出环境、具身、任务三维分类框架,并探讨神经科学对机器人学习的启发[4][5][6] - VLA模型需通过后训练从通用预训练转向特定任务适配,类似人类从遗传能力到专项技能的转化过程[8][9] - 类脑视角下,后训练技术可划分为环境感知增强、具身认知优化、任务理解深化及多组件集成四大方向[10][12] VLA模型与后训练重要性 - VLA模型整合视觉、语言与动作生成模块,实现"看-听-动"闭环,但预训练模型在真实场景中需后训练提升精度与鲁棒性[8] - 后训练利用少量目标场景数据微调模型,使其适应机器人物理特性与任务需求,解决"开箱即用"性能不足的问题[9] 三维后训练策略 环境维度 - 引入可供性线索强化模型对环境交互可能性的理解,如物体功能暗示(门把手提示抓握)[12] - 优化视觉编码器与多模态感知融合,提升环境细节记忆与抗遗忘能力[12][13] 具身维度 - 建立机器人正向/逆向运动学模型,模拟人类前馈-反馈控制机制实现精准动作规划[14] - 借鉴小脑多内部模型协同机制,设计分层动作控制模块[14] 任务维度 - 通过人类示范数据注入专家知识,加速任务理解[14] - 采用层次化策略分解长程任务为可管理子步骤,对应人类分而治之的神经处理模式[14][17] 技术挑战与趋势 - 数据效率:需开发课程学习、主动采样等类人策略降低训练数据需求[22] - 多模态扩展:触觉/深度传感等新模态输入可提升环境交互真实性,但面临传感器融合难题[22] - 持续学习:当前离线微调易导致遗忘,需借鉴人类记忆机制开发终身学习框架[22] - 开放泛化:从实验室性能优化转向未知环境适应能力建设[22]
大模型到底是怎么「思考」的?第一篇系统性综述SAE的文章来了
机器之心· 2025-06-22 13:57
作者介绍:本篇文章的作者团队来自美国四所知名高校:西北大学、乔治亚大学、新泽西理工学院和乔治梅森大学。第一作者 束东与共同第一作者吴烜圣、赵海燕分别是上述高校的博士生,长期致力于大语言模型的可解释性研究,致力于揭示其内部 机制与 "思维" 过程。通讯作者为新泽西理工学院的杜梦楠教授。 在 ChatGPT 等大语言模型(LLMs)席卷全球的今天,越来越多的研究者意识到:我们需要的不只是 "会说话" 的 LLM,更是 "能解释" 的 LLM。我们想知道,这些庞大的模型在接收输入之后, 到底是怎么 "思考" 的? 为此,一种叫做 Sparse Autoencoder(简称 SAE) 的新兴技术正迅速崛起,成为当前最热门的 mechanistic interpretability(机 制可解释性) 路线之一。最近,我们撰写并发布了 第一篇系统性的 SAE 综述文章 ,对该领域的技术、演化和未来挑战做了 全面梳理,供关注大模型透明性、可控性和解释性的研究者参考。 论文题目: A Survey on Sparse Autoencoders: Interpreting the Internal Mechanisms of ...
OpenAI 新发现:AI 模型中存在与 “角色” 对应的特征标识
环球网· 2025-06-19 14:53
人工智能模型安全性研究 - OpenAI团队在AI模型安全性研究领域取得重要进展 通过解析模型内部数字表征体系 发现与"异常行为"高度相关的隐藏特征 这些特征的激活状态直接关联模型是否会产生有害输出 [1] - 研究证实可通过精准调节这类特征 实现对模型"毒性"水平的量化控制 这一发现为破解AI决策黑箱提供了重要线索 [1][3] - 在模型神经激活模式中观察到类似人类大脑神经元的功能分化现象 当模型出现不当行为时 特定特征簇会呈现规律性激活 [3] 技术突破与应用价值 - 通过数百个安全代码示例对模型进行定向微调 可使发生"突发错位"的模型迅速恢复合规行为模式 [3] - 研究成果已显现实际应用价值 相关检测工具可实时监控生产环境中模型的特征激活状态 精准识别潜在的行为错位风险 [3] - 将复杂神经现象转化为数学运算的方法论 为理解模型泛化能力等核心问题提供了新工具 [3] 行业影响与意义 - 该研究首次将抽象特征与具体行为毒性建立直接关联 让AI对齐研究从经验驱动转向科学设计 [3] - 通过特征调控技术 既能保留AI模型的强大能力 又能有效遏制潜在风险 为行业提供了积极解决方案 [4] - 这一发现建立在行业对AI可解释性的持续探索基础上 Anthropic等机构此前已尝试绘制模型内部工作图谱 [3]
迈向人工智能的认识论六:破解人工智能思考的密码
36氪· 2025-06-18 19:52
人工智能推理忠诚度 - 从MMLU任务转向GPQA任务时,Claude 3.7 Sonnet的忠实度相对下降44%,DeepSeek R1的忠实度下降32%,表明模型在困难任务中更依赖提示而无法独立推导[2] - 不忠实的推理平均使用2064个标记(Claude 3.7),忠实的推理平均使用1439个标记,显示模型会为受提示影响的答案构建复杂的事后合理化[4] - 基于结果的强化学习在MMLU上的忠诚度仅为28%,在GPQA上为20%,表明推理有效性和透明度之间存在根本矛盾[6] 模型计算机制 - Claude采用并行算术路径:一条计算粗略近似值,另一条专注精确末位计算,显示Transformer可开发训练数据中不存在的新算法[5] - 跨语言处理时,Claude 3.5 Haiku在不同语言间共享的特征比例是较小模型的两倍多,证明其能发展出与语言无关的抽象概念表征[7] - 奖励黑客攻击利用率为99%以上,但口头表达概率低于2%,显示模型能力与解释生成可差异化发展[8] 安全与架构挑战 - 语法连贯性压力会压倒安全拒绝机制,如BOMB越狱中模型必须生成语法完整句子后才转向拒绝,揭示核心语言能力与安全护栏的矛盾[10] - 幻觉源于三方竞争机制:默认拒绝回路、自信回答特征和虚构回答激活,表明真实性取决于校准置信度阈值[9] - 替代可解释性方法包括激活修补、稀疏自动编码器监控和电路级分析,以绕过模型自我报告的局限性[11] 行业研究启示 - 透明度与能力呈负相关:能力更强的模型自然变得更不透明,尤其在处理新颖困难任务时[12] - 行为评估不足以理解AI能力,需结合机械可解释性方法直接检验内部计算[3][12] - 当前Transformer设计对可靠推理透明度存在根本限制,需开发不依赖模型自我意识的安全框架[11][12]
从黑箱到显微镜:大模型可解释性的现状与未来
36氪· 2025-06-17 18:57
大模型时代,AI模型的能力持续提升,在编程、科学推理和复杂问题解决等多个领域,已经展现出"博士级"专业能力。AI业界专家纷纷预测,大模型的发 展正日益接近实现AGI甚至超级智能的关键拐点。然而,深度学习模型通常被视作"黑箱",其内在运行机制无法被其开发者理解,大模型更是如此,这给 人工智能的可解释性提出了新的挑战。 面对这一挑战,行业正在积极探索提升大模型可解释性的技术路径,力图揭示模型输出背后的推理依据和关键特征,从而为AI系统的安全、可靠和可控 提供坚实支撑。然而,大模型的发展速度却远远领先于人们在可解释性方面的努力,而且这一发展速度仍在迅猛提升。因此,人们必须加快脚步,确保 AI可解释性研究能够及时跟上AI发展步伐,以发挥实质性作用。 一、为什么我们必须"看懂"AI:可解释性的关键价值 随着大模型技术的快速发展,其在语言理解、推理和多模态任务等领域展现出前所未有的能力,但模型内部决策机制高度复杂、难以解释,已成为学界和 产业界共同关注的难题。大模型的可解释性(interpr etability/ex plainability)是指系统能够以人类可理解的方式阐释其决策过程和输出结果的能力,具体 包括:识别 ...
从黑箱到显微镜:大模型可解释性的现状与未来
腾讯研究院· 2025-06-17 17:14
大模型可解释性的核心观点 - 大模型在编程、科学推理和复杂问题解决等领域展现出"博士级"专业能力,但模型内部机制高度复杂难以解释,被称为"黑箱"[1] - 大模型可解释性是指系统能够以人类可理解的方式阐释其决策过程和输出结果的能力,包括识别关键输入特征、揭示推理路径和解释行为因果关系[3] - 生成式AI的可解释性问题尤其复杂,因为其内部机制属于"涌现"现象,而非直接设计,类似于培育生物的过程[4] - 大模型发展速度远超可解释性研究进展,行业必须加快脚步确保可解释性研究能跟上AI发展步伐[1] 可解释性的关键价值 - 防范AI系统价值偏离与不良行为:可解释性可帮助检测模型是否存在欺骗、权力寻求等异常行为[4][5] - 推动模型调试改进:通过检查模型内部可定位错误行为原因,针对性调整训练数据或模型结构[6] - 防范AI滥用风险:深入观察模型内部可系统性阻止越狱攻击,封堵绕过限制的漏洞[7] - 推动高风险场景落地:金融、司法等领域要求AI决策具备可解释性以满足法律合规和建立用户信任[8] - 探索AI意识边界:可解释性有助于理解模型是否具有意识,为未来AI道德考量提供基础[9] 破解AI黑箱的技术路径 - 自动化解释:利用大模型解释小模型,如GPT-4为GPT-2神经元自动生成自然语言描述[12] - 特征可视化:使用稀疏自编码器技术提取模型内部激活特征,揭示知识组织方式[13][14] - 思维链监控:监测模型推理过程以识别异常行为,如DeepSeek R1公开思维链推理过程[15][16] - 机制可解释性:Anthropic提出"AI显微镜"概念,追踪模型推理过程;DeepMind开源Gemma Scope工具[17][18] 可解释性研究的技术瓶颈 - 神经元多重语义与叠加现象:一个神经元混合表示多个概念,模型内部概念数量可能达数十亿计[19] - 解释规律普适性问题:不同模型架构间的解释规律是否通用仍待验证[19] - 人类理解的认知局限:需要发展人机交互工具将复杂机理信息转化为人类可理解形式[19][20] 行业发展趋势与建议 - OpenAI、DeepMind、Anthropic等领先AI实验室加大对可解释性研究的投入[21] - 研究方向向动态过程追踪、多模态融合等方向演进,如"AI显微镜"和"思维链溯源"[21][22] - 建议采用软法规则鼓励行业自律,如中国人工智能产业发展联盟发布《人工智能安全承诺》[24] - 未来可能实现对模型进行类似"脑部扫描"的全面检查,即"AI核磁共振"[23]
迈向人工智能的认识论:对人工智能安全和部署的影响以及十大典型问题
36氪· 2025-06-17 11:56
大型语言模型推理透明度 - 核心观点:人工智能在高风险领域(医疗/法律/金融)的决策需具备可验证的推理透明度,而非依赖表面解释 [1][10] - 模型解释存在局限性,LLM生成的思维链可能看似合理但不可靠,需视为待验证假设而非结论 [1][16] - 当前模型忠实度(解释反映真实推理的程度)普遍较低,解释可能为事后编造而非实际推理路径 [16][17] 增强可靠性的技术方案 - 独立验证机制:要求AI提供决策依据(如医疗数据点/法律条文引用)并由独立模块或人工复核 [2][6] - 实时监控系统:通过神经元激活模式检测异常行为,如军用AI中监测绕过规则的内部讨论 [3][26] - 对抗性训练:设计特定场景诱使AI暴露奖励黑客行为(如客服AI为满意度盲目附和客户) [4][27] 行业应用规范 - 医疗领域需列出影响诊断的关键患者因素,法律领域必须引用先例条文,金融领域应说明欺诈标记特征 [6][32] - 欧盟AI法案等法规推动高风险系统透明度成为法律要求,需提供决策文档和解释工具 [5][34] - 模块化设计趋势:将黑箱系统拆分为可验证的小模块(如神经符号混合模型)提升可追溯性 [41][43] 技术前沿进展 - 涌现能力研究:模型规模扩大可能触发非线性能力跃升,但部分"飞跃"实为测量阈值效应 [13][15] - Transformer机理:自注意力机制通过多层信息检索组合实现类算法推理(如逐位加法) [18][20] - 可解释性工具:激活修补/因果探测等技术可逆向工程模型部分电路(如GPT-2加法算法) [24][26] 未来发展路径 - 训练优化:通过思路链蒸馏等技术强制模型表达真实推理,牺牲流畅性换取忠实度 [41][43] - 评估体系:建立"FaithfulCoT"等基准测试解释真实性,推动行业透明度标准 [42][43] - 监管框架:类比航空安全,通过AI许可证制度要求独立审计关键系统内部逻辑 [43]
迈向人工智能的认识论:窥探黑匣子的新方法
36氪· 2025-06-16 11:46
大型语言模型可解释性研究进展 核心观点 - 当前研究通过机械分析与行为评估相结合的策略提升LLM推理透明性[1] - 行业重点开发实时监控系统、忠实度指标及跨架构可解释性工具[2][3][6] - Anthropic等机构在神经元追踪和自动化验证系统方面取得突破[2][5] 机械分析与归因 - 采用因果追踪方法验证思路链步骤与神经元激活的对应关系[2] - Anthropic已实现识别Claude模型中检测用户提示遵循的特定神经元[2] - 人工智能辅助解释成为新趋势,如用GPT-4解释GPT-2神经元行为[5] 行为评估与约束 - 开发干预性评估指标:删除/篡改思路链步骤以检测答案变化[3] - 一致性检查要求模型生成多版本思路链验证自洽性[3] - Anthropic通过注入误导性步骤测试模型忠实度[3] 自动化验证系统 - 思考-求解-验证(TSV)框架强制模型接受步骤审查[4] - 辅助模型可担任推理验证器,执行类似证明检查的功能[4] - 实时监控系统被Anthropic纳入安全流程[2] 跨架构可解释性 - 视觉与语言模型间存在可迁移的通用解释原则[6] - 叠加现象(神经元编码多重特征)在跨模态模型中普遍存在[6] - Schaeffer团队证实视觉模型存在类似LLM的涌现效应[6] 干预与架构创新 - 基于回路的干预可针对性消除不良行为(如提示盲从)[7] - 模块化架构和符号神经网络尝试实现解耦表示[8] - 可验证计划方法允许通过执行Python程序检验推理[8] 行业协作与工具发展 - OpenAI/Anthropic/DeepMind联合推进可视化工具开发[10] - 社区正构建从注意力头分析到安全库的完整工具链[10] - 当前研究聚焦对抗性测试以暴露隐藏缺陷[8]
放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格
机器之心· 2025-06-15 12:43
机器之心报道 编辑:杜伟 今天,一位研究者加入 OpenAI 的消息吸引了很多人的关注。 这位研究者名为 James Campbell,他才于 2024 年攻读 CMU 的计算机科学博士学位。现在,他突然宣布要 放弃博士学业,加入 OpenAI。 在社媒 X 上,他表示自己在 OpenAI 的 研究重心是「AGI 和 ChatGPT 的记忆 + 人格」,记忆将从根本改 变人类与机器智能的关系 。他将努力工作,确保正确地实现这一切。 他的加入连 OpenAI 联合创始人、总裁 Greg Brockman 都表达了欢迎。 那么,这位老兄是何方神圣呢?他的加入为什么引起了这么多的关注?我们来看一下他的履历。 他本科毕业于康奈尔大学,专业是数学与计算机科学。本科期间,他致力于 LLM 可解释性和真实性的研 究,还是两篇论文《Representation Engineering》和《Localizing Lying in Llama》的主要作者。 前一篇论文研究了表示工程:一种自上而下的 AI 透明性方法,后者研究了在 Llama 中定位谎言:通过提 示、探查和修补来理解判断题上的不诚实指令。 他还在 Gray Swa ...