Workflow
AI科学推理
icon
搜索文档
10倍加速化学推理大模型!Haven团队在隐空间思考分子式,碾压显示CoT
量子位· 2026-03-20 13:04
文章核心观点 - 由Haven团队与斯坦福大学、普林斯顿大学研究人员提出的LatentChem模型,旨在革新AI在化学领域的推理方式,其核心观点是:对于科学推理(尤其是化学),将推理过程从显式的自然语言思维链(CoT)转移到模型内部的连续隐空间中进行,可能比传统的“把步骤写出来”更有效、更符合化学推理的本质 [5][6][7] 传统思维链方法的局限性 - 在化学场景中,传统大模型通过生成大量文本思维链进行推理的方法存在“说一套,做一套”的问题,即模型能写出专业的化学分析文字,但最终生成的分子结构(如SMILES)却与分析对不上 [8][9][10][11] - 其根本原因在于化学推理本身更适合在**连续、结构化**的空间中进行,而自然语言token是**离散**的,强行将连续推理过程切割成离散文本步骤会产生“连续性-离散化鸿沟”,导致推理效率低下且描述与结果脱节 [12][13][14] LatentChem的核心机制 - 核心思路是“先在隐空间里思考,再在语言空间里回答”,将推理与表达拆分开,并非取消推理,而是更换了推理介质 [15][23] - 具体流程分为四步:1) 将分子信息编码为固定数量的ChemTokens作为软提示;2) 在隐空间生成一串承载关键推理信息的latent thought向量,而非主要依赖文本;3) 通过ChemUpdater模块,使推理每一步都能回看并更新分子表示,实现动态聚焦;4) 通过Latent Projector将隐状态映射回输入空间,形成多步连续更新的闭环 [16][17][18][19][20][21][22] 模型行为的转变与验证 - 在强化学习训练阶段,当奖励机制只关注最终结果(输出格式、答案有效性、准确性)而不鼓励写出思维链时,模型会**自发减少显式CoT**,通常只在内部完成推理后输出一个极短过渡符号(如“.”或“:”)便直接给出答案 [24][25][26][27] - 实验证明,latent thinking并非摆设:当用高斯噪声替换前面的隐状态步骤时,模型性能下降明显,表明这些隐状态承载了推理所需的关键信息 [28][29][30] - 模型学会了灵活的分配策略:当隐空间推理预算充足时,更多在内部计算;当预算被压缩时,会重新启用显式文本推理来补足能力,这说明模型学到的不是简单禁止输出,而是更优的计算资源分配 [34][35][36][37][38] 性能表现与效率提升 - 在化学基准测试中表现亮眼:在高度依赖推理的ChemCoTBench测试中,相比强大的显式CoT基线模型,取得了**高59.88%的非平局胜率** [42] - 效率大幅提升:通过将冗长的文本推理转化为紧凑的隐状态,**平均推理速度暴涨10.84倍**,在特定反应任务上效率甚至提升了近30倍 [42] - 性能数据概览:在多个基准测试中,LatentChem表现优异,例如在ChemCoTBench (All) 上达到59.88,在Mol-Instructions (All) 上达到49.88,在ChEBI-20 (Open) 上达到85.26 [43] 对AI Scientist发展的意义 - LatentChem不仅是新的化学模型,更是构建未来AI Scientist系统的关键组件,展示了让AI在**结构化的连续隐空间**中完成科学推理,再按需输出可解释结果的新范式 [44][45][46] - 这项工作挑战了传统认知,证明显式CoT可能只是推理的一种外化形式,而非推理本身,其真正意义在于将推理从文本表面收回到模型内部,为下一代科学AI奠定了更符合底层规律的计算基础 [39][42][47] - 未来的AI Scientist在执行分子设计、实验规划等复杂科学工作流时,其持续推理、探索和发现的过程可能主要发生在隐空间中,而不必将每一步思考都写出来 [48][49]