Workflow
思维链(CoT)
icon
搜索文档
只用2700万参数,这个推理模型超越了DeepSeek和Claude
机器之心· 2025-06-30 18:23
大模型架构变革 - 当前大语言模型(LLM)采用思维链(CoT)技术存在任务分解复杂、数据需求大、高延迟等问题 [2] - 分层推理模型(HRM)通过循环架构实现高计算深度,仅需2700万参数和1000个训练样本即可在复杂推理任务中表现卓越 [3][4] - HRM无需预训练或CoT数据,在数独、迷宫路径查找等任务中达到近乎完美性能,并在ARC-AGI基准上超越更大模型 [5][7] HRM设计原理 - 核心灵感源于大脑分层处理和多时间尺度机制:高级模块负责抽象规划(慢速),低级模块处理细节计算(快速) [12][13] - 采用四个可学习组件(输入网络、高低级循环模块、输出网络)实现层级收敛性,H模块稳定收敛,L模块周期性重置 [14][15][17] - 通过一步梯度近似法(O(1)内存)和深度监督机制优化训练效率,避免传统BPTT算法的深层信用分配难题 [19][20][23] 性能与实验验证 - 在ARC-AGI、数独、迷宫任务中,HRM表现出类似深度优先搜索和渐进优化的底层推理算法 [31] - 训练后高层模块与低层模块自然涌现维度层级分化,而非架构固有特性 [33][34] - 具备图灵完备性,可模拟任何图灵机,通过自适应计算时间(ACT)动态调整资源分配 [35][36][27] 技术对比优势 - 相比CoT模型,HRM在符号树搜索任务(如Sudoku-Extreme)中准确率接近100%,而标准Transformer增加深度无效 [10] - 强化学习(RL)需依赖CoT能力且数据效率低,HRM通过密集梯度反馈实现连续空间运算,生物合理性更高 [37][39] - 推理阶段仅需调整计算限制参数Mmax即可扩展性能,无需重新训练 [28]
ACL 2025|为什么你设计的 Prompt 会成功?新理论揭示大模型 Prompt 设计的奥秘与效能
机器之心· 2025-06-16 12:04
本文共同一作是张翔和曹峻泰。张翔是英属哥伦比亚大学研究生,主要研究兴趣集中在大模型推理和 AI for Science;曹峻泰是英属哥伦比亚大学研究生, 主要研究兴趣集中在大模型推理和可解释性研究;本文通讯作者是来自纽约大学石溪分校的助理教授尤晨羽,以及来自 Meta Gen AI 的研究员丁渡鉴。 近年来,大型语言模型(LLM)在自然语言处理领域取得了革命性进展。然而,其底层的 Transformer 架构在处理复杂推理任务时仍有不足。尽管「思维 链」(CoT)提示技术提供了一条实用路径,但多数方法依赖通用指令,导致提示工程高度依赖反复试验,缺乏理论指导。 图 1 :Prompt 模板深刻影响着答案空间的配置和导航方式。左侧展示了不同的 Prompt(如 Auto-Prompt、RL-Prompt)如何在「Prompt 空间」中进行搜索,而右侧则展示了在特定 Prompt 指导下,如何在「答案空间」中进行搜索以得到解决方案(如 Tree-of-Thought、Graph-of-Thought)。 来自英属哥伦比亚大学、纽约大学石溪分校和浙江大学的研究团队深入剖析了 Prompt 如何在 LLM 的 CoT ...
实测思维链大变!DeepSeek R1一个“小升级”性能直逼o3,但仍“过度思考”?
AI前线· 2025-05-29 11:58
DeepSeek-R1-0528版本升级 - 公司在Huggingface平台开源了新版本DeepSeek-R1-0528,主要升级推理精度和代码生成速度[1][2] - 新版本在Live CodeBench基准测试中性能媲美OpenAI的o3(High)版本[2] - 官方称此次为"小版本试升级",未发布训练方法技术报告[3] 模型性能表现 - 在8/1/2024测试中,DeepSeek-R1-0528以Pass@1 73.1排名第四,优于Groq-3-Mini(66.7)和Gemini-2.5-Flash-Preview(60.6)[3] - Easy-Pass@1达98.7,与排名第一的04-Mini(High)(99.1)接近[3] - Medium-P表现与多数竞品持平(8分),优于Grok-3-Mini(7分)和Gemini-2.5-Flash-Preview(7分)[3] 用户实测反馈 - 唯一能正确回答"9.9-9.11"问题的模型[7] - 推理能力接近Google模型,写作任务更自然且格式优化[8] - 编程能力显著提升但仍落后于o3和Claude 4[9] - 存在"过度思考"问题,如解答高中数学题耗时6分钟[9] 思维链改进 - 思维链(CoT)行为发生重大变化,从类似o系列转向类似Gemini风格[9] - 新版CoT被评价为"更加面向用户"[9] - 任务处理时间延长至每项30-60分钟[8] 行业动态 - AICon北京站将聚焦AI Agent构建、多模态应用等前沿议题[12] - Claude 4发布全球最强编码模型,可实现自主编码7小时[12] - Grok 3被质疑套壳Claude,xAI工程师遭批评[12] - 印度国家级大模型上线两天仅300余次下载,远低于韩国大学生模型(20万次)[12]
北大校友、OpenAI前安全副总裁Lilian Weng关于模型的新思考:Why We Think
Founder Park· 2025-05-18 15:06
文章转载自「机器之心」的编译版本。 学习大模型的优质博客又更新了! 最近,北大校友 Lilian Weng (OpenAI前AI安全与机器人技术应用研究副总裁,现Thinking Machines Lab联合创始人,知名博客Lil'Log作者) 更新了一篇长长长长长长长博客《Why We Think》。 最新、最值得关注的 AI 新品资讯; 不定期赠送热门新品的邀请码、会员码; 文章回顾了近期在如何有效利用测试时计算(即「思考时间」)及其作用机制方面的研究进展,旨在让模型「思考得更久」这一目标可以从多个角 度得到合理动机支持。 通过观察 GPT、Claude、Gemini 等模型的迭代,可以清晰地看到,它们在复杂逻辑推理、长文本理解、数学问题求解以及代码生成与调试等高级 认知任务上的性能边界被不断拓展。 这种性能的提升得益于思维链(CoT)和测试时计算等策略的优化,但也带来了新的研究挑战。 为了方便国内读者更好地学习这篇内容,机器之心对此文章进行了编译。感兴趣的读者也可查阅原英文内容。 英文博客链接: https://lilianweng.github.io/posts/2025-05-01-thinking ...
刚刚!北大校友Lilian Weng最新博客来了:Why We Think
机器之心· 2025-05-18 12:25
大模型测试时计算优化 - 核心观点:通过延长模型"思考时间"(测试时计算)可显著提升大语言模型在复杂推理任务中的性能表现,该方向与人类认知双系统理论高度相关[2][6] - GPT、Claude、Gemini等模型通过思维链(CoT)和测试时计算策略优化,在逻辑推理、长文本理解、数学问题求解等高级认知任务上不断突破性能边界[2] - Transformer生成每个token的计算量约为参数量的2倍,而稀疏模型(MoE)因部分网络激活可降低计算量至2×参数数÷稀疏度[8] 思维链技术演进 - 思维链(CoT)允许模型根据问题难度动态调整计算量,早期通过监督学习人类编写的推理路径实现[13] - 强化学习在可验证答案的数据集(如STEM问题)上应用显著提升CoT性能,近期采用策略梯度算法结合自动评估成为主流方法[14] - 模型规模越大,"思考时间"带来的性能收益越显著,在数学问题上成功率提升明显[16] 并行采样与序列修订 - 并行采样通过生成多个候选序列并用验证器筛选最优解,实现简单但依赖模型单次生成能力[19][26] - 序列修订通过迭代修正输出实现质量提升,需额外控制修订风险如正确答案被错误修改[20] - 实验表明简单问题适合纯序列策略,高难度问题需组合并行与序列方法才能获得最优表现[21] 强化学习应用 - DeepSeek-R1通过两阶段SFT-RL训练在数学/编程任务表现优异,验证纯强化学习可涌现"顿悟时刻"类高级推理能力[42][46] - 推理类RL训练使用格式奖励(特殊token包裹CoT)和准确性奖励(自动验证答案)双重机制[43] - 失败案例显示过程奖励模型易导致奖励欺骗,蒙特卡洛树搜索因token空间过大难以应用[49] 外部工具整合 - PAL和Chain of Code方法通过调用代码解释器处理数学计算/编程任务,扩展模型能力边界[52] - ReAct方法结合Wikipedia API调用与推理轨迹生成,实现外部知识整合[56] - OpenAI o3/o4-mini模型融合网页搜索、代码执行等工具操作,验证计算资源与性能正相关[57] 连续空间思考架构 - 递归架构如Universal Transformer通过自适应计算时间动态调整推理步数[82] - 思考token技术通过插入特殊token为模型争取额外计算时间,在数字推理任务效果显著[85] - Quiet-STaR实现token级推理,通过生成未来文本的合理化解释提升预测质量[89] 测试时计算规模效应 - 测试时计算优化相比参数扩展可能更高效,但对困难问题的弥补能力有限[107] - 思维链长度与评估准确率呈正相关,但简单拒绝采样会导致反向scaling现象[112][113] - 最佳效果出现在推理token远少于预训练token时,表明基础模型能力仍是关键[112]
一文看懂多模态思维链
量子位· 2025-03-25 08:59
多模态思维链(MCoT)系统综述 核心观点 - MCoT通过整合图像、视频、音频、3D模型等多模态数据,实现接近人类思维的跨模态推理能力,显著提升AI在复杂场景的应用潜力 [2][3][4] - 技术突破体现在六大方法论支柱:推理构建、结构化推理、信息增强、目标粒度、多模态思维、测试时扩展 [7][8][9][12][14][15][16] - 已在医疗诊断、自动驾驶、创意生成等领域实现商业化应用,但面临计算效率、错误传导、伦理风险等挑战 [17][18][20][22][24][25] 技术方法论 推理构建 - 基于提示:通过多模态指令模板实现零样本/少样本推理链生成 [8] - 基于规划:动态构建树状推理路径(如时序分析/因果推断分支)并筛选最优解 [8] - 基于学习:通过标注推理依据数据微调模型,增强内在逻辑能力 [8] 结构化推理 - 异步模态处理:分离感知模块(目标检测)与推理模块(逻辑生成)提升效率 [10] - 固定流程阶段化:采用预定义规则(如"辩论-反思-总结"模式)分阶段决策 [10] - 自主流程阶段化:动态生成子任务序列(如先定位物体再分析属性) [10] 信息增强 - 集成3D建模软件等专业工具提升特定模态任务精度 [12] - 通过检索增强生成(RAG)技术动态引入领域知识库 [12] - 分析上下文实体关系强化逻辑一致性 [12] 目标粒度 - 粗粒度:宏观场景理解(如危险物品识别) [15] - 中观:物体级语义对齐(如特定目标定位) [15] - 细粒度:像素级分析(如病灶边界分割) [15] 应用场景 - 医疗:结合CT影像与病史生成诊断报告并标注病灶 [3][25] - 自动驾驶:从路况识别到驾驶决策全链条推理 [25] - 创意生成:草图到3D模型的端到端转化 [25] - 教育:通过表情/语调分析实现情绪识别辅助教学 [25] 未来挑战 - 计算资源:慢思考策略需高算力支持,需算法优化与硬件协同 [18][19] - 错误传导:早期目标误判可能导致推理链崩溃,需实时检测与回溯修正 [20][21] - 伦理风险:多模态伪造内容需验证框架与鉴别技术 [22][23] - 场景扩展:当前局限于可验证领域,需开发开放任务推理模型 [24][25]