Workflow
机器之心
icon
搜索文档
大模型到底是怎么「思考」的?第一篇系统性综述SAE的文章来了
机器之心· 2025-06-22 13:57
作者介绍:本篇文章的作者团队来自美国四所知名高校:西北大学、乔治亚大学、新泽西理工学院和乔治梅森大学。第一作者 束东与共同第一作者吴烜圣、赵海燕分别是上述高校的博士生,长期致力于大语言模型的可解释性研究,致力于揭示其内部 机制与 "思维" 过程。通讯作者为新泽西理工学院的杜梦楠教授。 在 ChatGPT 等大语言模型(LLMs)席卷全球的今天,越来越多的研究者意识到:我们需要的不只是 "会说话" 的 LLM,更是 "能解释" 的 LLM。我们想知道,这些庞大的模型在接收输入之后, 到底是怎么 "思考" 的? 为此,一种叫做 Sparse Autoencoder(简称 SAE) 的新兴技术正迅速崛起,成为当前最热门的 mechanistic interpretability(机 制可解释性) 路线之一。最近,我们撰写并发布了 第一篇系统性的 SAE 综述文章 ,对该领域的技术、演化和未来挑战做了 全面梳理,供关注大模型透明性、可控性和解释性的研究者参考。 论文题目: A Survey on Sparse Autoencoders: Interpreting the Internal Mechanisms of ...
大模型为何难成为「数学家」?斯坦福等揭示严谨证明中的结构性弱点
机器之心· 2025-06-22 12:26
数学推理与AI研究 - 数学证明需要逻辑闭合和严谨推理过程,不等式问题是检验模型推理能力的理想对象[1] - 当前形式化数学系统如Lean、Coq要求极高精度,难以规模化应用于中学到奥数级别的不等式问题[1] - 大语言模型在非形式化推理方面表现出色,能给出看似合理的答案并模仿人类初期思维方式[1] IneqMath创新方法 - 研究团队提出将不等式证明拆解为"界限估计"和"关系预测"两个子任务[2][7] - 构建首个奥林匹克级不等式证明基准数据集IneqMath,包含1,252道训练题目和200道测试题目[11][12] - 数据集覆盖83种定理和29个定理类别,测试集由IMO奖牌得主设计并经数学家审核[12] 评估框架 - 开发LLM-as-Judge框架,包含五种自动评审器评估模型推理严谨性[20] - 评审器系统在与人工标注对齐的任务上达到F1=0.93的表现[24] - 框架可判断模型是"碰巧答对"还是每个推理节点都正确[23] 研究发现 - 存在Soundness Gap现象:模型最终答案准确率与推理严谨性差距显著[27] - Grok 3 mini最终答案准确率71.5%,但逐步评审后骤降至6.0%[29] - 模型规模增大能提升猜测准确率,但对推理严谨性提升有限[30] - 增加推理token数仅带来轻微提升,很快进入饱和状态[32] 改进策略 - 自我批判提升策略为Gemini 2.5 Pro带来约5%的准确率提升[42] - 定理提示策略使Gemini 2.5 Pro准确率提升约10%[42] - 研究团队设立动态更新的排行榜推动模型在严谨数学推理上的进步[36] 研究团队 - 项目由斯坦福大学、麻省理工学院和加州大学伯克利分校的研究者联合完成[44] - 负责人Pan Lu是斯坦福大学博士后研究员,研究方向包括大语言模型和数学发现[45] - 合作者包括MIT博士生Alex Gu和斯坦福大学博士生Jikai Jin[46][47]
Sam Altman提醒创业者:ChatGPT将来要做的,大家就绕开吧
机器之心· 2025-06-22 12:26
行业未来会怎样 - AI将从被动问答工具进化为主动、持续运行的智能体,深度理解用户并连接所有数据以完成任务,最终形成完全多模态的集成模型,具备深度推理、实时生成视频和即时编写代码能力,使计算机界面近乎无感[6][8] - 未来软件行业将出现「即时软件」,LLM作为交互界面可根据业务逻辑和数据即时生成应用,颠覆传统SaaS模式,为快速迭代的初创公司创造巨大机会[7][9] - 机器人时代即将到来,策略是先极致化AI认知能力再与机器人结合,具备视觉、语音和推理能力的AI机器人将执行实用工作,未来高级ChatGPT订阅可能免费赠送机器人[12] 宏大愿景 - 未来10-20年最令人兴奋的是AI加速科学发现,其复合增长将推动长期经济增长和生活改善[15] - 驱动社会进步的核心杠杆是「智能」和「能源」,两者结合将实现「彻底富足」的未来[17] - 当前数字生活界面充满干扰,未来界面应主动判断何时行动而非信息轰炸,使电脑大部分功能「消失」[18] 现在该做什么 - 当前最大机会在于抓住AI能力远超产品形态的缺口,利用API成本下降和开源模型普及的时机,以AI为「新元素」创新[23] - 创业公司应避免复制ChatGPT或热门方向,选择独特领域逐步建立防御性,初期靠产品优势,后期靠品牌和网络效应[24] - AI将大幅提升个人或小团队杠杆效应,降低协调成本,使少数人创造数量和质量惊人的成果[24] - OpenAI计划通过平台化支持生态初创公司,例如推出「用ChatGPT登录」功能,赋能开发者获取个性化AI用户[25] 个人理念 - 创办OpenAI最关键的决定是「决定去做」本身,独特且逆向的AGI使命吸引了顶尖人才[28] - 招聘原则注重成长潜力而非当前履历,早期优先选择年轻有闯劲的执行者而非经验丰富的管理者[30] - 创业者需培养长期韧性,在极端压力下坚持信念并持续迭代[31]
开源版MetaQuery来了!OpenUni用1.1B参数媲美BLIP3-o-8B,数据代码完全开源
机器之心· 2025-06-22 12:26
核心观点 - 南洋理工大学S-Lab和商汤科技推出开源多模态模型OpenUni,仅用1 1B参数达到8B模型性能,并开源代码、权重和数据[1][5] - OpenUni通过极简架构设计实现高效参数利用,在多项基准测试中表现优异[5][16] - 该模型为研究社区提供了清晰可复现的基线实现,促进多模态领域创新[18][20] 架构设计 - 采用256个可学习查询和6层轻量连接器桥接冻结的InternVL与SANA[2] - 相比MetaQuery的24层连接器大幅精简,仅保留6层transformer连接器[5] - 包含四个核心组件:可学习查询、冻结InternVL、6层ViT连接器、SANA扩散模型[5] 性能表现 - OpenUni-B-512(1 1B参数)GenEval达0 84分,与BLIP3-o-8B持平[5][16] - OpenUni-L-1024(3 1B参数)GenEval达0 86分,创开源统一模型最佳记录[16] - DPG-Bench测试中OpenUni-L-1024获83 08分,超越所有MetaQuery和BLIP3-o变体[16] 参数效率 - 连接器参数大幅减少:OpenUni-B仅54M,OpenUni-L仅225M[6] - 使用更小规模的MLLM和扩散模型(InternVL3-1B/2B+SANA-0 6B/1 6B)[6] - 训练数据量仅2300万图文对,低于同类模型的2500-3000万[6][7] 训练策略 - 两阶段训练:预训练(2300万图文对)+微调(6万图文对)[7][9] - 第一阶段冻结扩散模型,学习率1e-4,批次大小512[8][9] - 第二阶段解冻扩散模型联合优化,学习率1e-5,批次大小256[8][9] 开源贡献 - 完整开源模型权重、训练代码和2300万数据集[1][19] - 提供详细文档包含训练配置和复现指南[19] - 数据集包含LLM/MLLM重新标注的高质量caption[19] 应用局限 - 生成图像中渲染文字能力有限[19] - 最大模型基于2B MLLM和1 6B扩散模型,规模有待扩展[19] - 图像到图像生成功能将在未来版本支持[19]
从RLHF、PPO到GRPO再训练推理模型,这是你需要的强化学习入门指南
机器之心· 2025-06-22 12:26
强化学习技术发展 - 强化学习已成为LLM领域不可或缺的核心技术 覆盖大模型对齐、推理模型训练及智能体强化学习等方向 [1] - Unsloth团队发布强化学习教程 从吃豆人案例切入 系统讲解RLHF、PPO至GRPO的技术演进路径 其开源项目GitHub星数超4万 [2][5] - GRPO(组相对策略优化)由DeepSeek开发 通过移除价值模型、采用多轮采样统计替代传统PPO架构 显著降低显存消耗 [22][25][26] GRPO技术原理 - GRPO核心创新在于用采样答案的Z分数标准化替代价值模型 通过计算8-16次生成结果的平均奖励及标准差生成优势值A [27][28] - 技术优势体现在:支持自定义奖励函数 适用于数学验证/代码执行等场景 显存需求最低仅需5GB(1.5B参数模型) [30][44] - 训练机制采用多答案生成策略(每问题8-16变体) 通过奖励函数动态调整权重 需300-1000训练步数见效 [45][49] 应用场景与案例 - 适用领域包括数学推理(GSM8K数据集)、邮件自动化、法律医学等专业任务 准确率提升依赖可验证的阶段性奖励设计 [30][55][61] - Unsloth提供实战案例:在Qwen3基础模型上实现推理功能 通过邻近度评分、XML标签计数等定制化奖励函数优化输出质量 [62] - 典型奖励函数设计包含关键词匹配(+1)、格式合规性(-1)、答案接近度(梯度奖励)等多维度评估体系 [58][59][60] 实施要点与资源 - 硬件要求:17B参数模型需15GB显存 推荐使用QLoRA 4-bit量化技术降低资源消耗 [44][49] - 关键成功要素包括:500+行训练数据、12小时以上训练时长、基于指令微调的预训练模型(概率非零) [41][49][57] - 学习资源涵盖Nathan Lambert的RLHF专著、Yannic Kilcher视频解析及Unsloth提供的Colab实战笔记本 [63]
概率统计机制下,LLM 推理真的「理解世界了」吗?
机器之心· 2025-06-21 14:32
概率统计机制下LLM推理能力的本质探讨 - 苹果公司近期发表论文指出当前LLM的推理仅是模式匹配而非真正思考,引发行业对AI推理能力的重新审视[3] - 学术界对AI推理的经典定义强调其应包含逻辑推导、符号操作或统计关联生成新结论的过程,但佛罗里达人类与机器认知研究所科学家明确表示主流LLM尚未具备严格推理能力[4] - 2011年图灵奖得主Pearl的因果推理理论指出真正推理需理解「如果…那么…」的因果关系,而当前LLM缺乏因果框架导致推理深度不足[5] - 圣塔菲研究所教授通过实验证明GPT-4仅能复述类比题型但未发展出因果归纳能力,显示模型学习的是语言形式而非理解结构[5] 关于LLM推理能力的对立学术观点 - 普林斯顿荣誉教授提出推理本质是基于心智模型的认知活动,2018年图灵奖得主Hinton支持该观点并认为人类认知更接近模式匹配而非逻辑推理[5] - Hinton强调人类决策依赖经验映射和类比推理,而LLM展现的模式拟合能力已达到准认知水平[5][6] - UCLA研究者发现GPT-3/4在零试条件下通过类比推理解决新问题的能力匹配甚至超越人类表现[7] 思维链(CoT)在LLM推理中的实际作用 - 部分研究者认为思维链是LLM实现可用性推理的核心机制,Next Token Prediction可能构成动态建模过程而非简单复读[7] - 行业对CoT是否显性触发推理路径存在争议,强化学习后训练或可突破LLM当前的「知识幻觉」限制[1][3] 企业AI采购预算趋势分析 - 企业增加生成式AI支出的核心动因包括从自建转向采购第三方应用,且采购流程呈现传统软件特征[1] - 生产用例中采用多模型的策略源于对评估框架的优化需求,关键因素涵盖性能、成本与适配性等维度[1] 本期通讯数据概览 - 包含2项专题深度解读及31项AI/Robotics赛道要闻速递,其中国内动态8项、国外动态11项、技术进展12项[2] - 总字数达22632字,免费试读比例为7%,完整版需消耗99微信豆(约合人民币9.9元)[3]
月之暗面「调教」出最强Agent,在「人类最后一场考试」拿下最新 SOTA
机器之心· 2025-06-21 13:06
核心观点 - Kimi-Researcher是一款基于自研Kimi k系列模型的自主Agent,擅长多轮搜索和推理,平均每项任务执行23个推理步骤,访问超过200个网址[2] - 该Agent在"人类最后一场考试"中取得26.9%的Pass@1成绩,创下SOTA水平,Pass@4准确率达40.17%[3] - 通过端到端强化学习训练,Kimi-Researcher从初始8.6%的HLE分数提升至26.9%,证明该方法在提升Agent智能方面的潜力[4] - 在xbench-DeepSearch子任务上平均pass@1达到69%,超越其他带有搜索工具的模型[4] - 能够根据模糊信息进行电影识别、学术研究、法律政策分析、企业财报分析等复杂任务[7][8][10] 技术架构 - 基于三个主要工具:并行实时内部搜索工具、基于文本的浏览器工具、自动执行代码的编码工具[13] - 采用端到端智能体强化学习方法,训练单一模型整体性解决问题,融合规划、感知、工具使用等能力[14] - 使用REINFORCE算法训练,引入gamma衰减因子提升效率,鼓励更短更高效的探索路径[24][25] - 设计上下文管理机制,将单条轨迹迭代次数扩展至50次以上,平均提升30%的迭代次数[27][30] 训练方法 - 通过自动合成训练数据解决高质量强化学习数据集稀缺问题[20] - 设计以工具使用为核心和以推理为核心的两类任务,促进智能体深入学习[21] - 开发全自动数据生成与验证流程,确保数据多样性与准确性[21] - 引入Pass@N检查机制,保留具有挑战性的问题[22] - 采用基于最终结果的奖励机制,保持训练环境中的一致偏好方向[24] 性能表现 - 在FRAMES、Seal-0等多轮搜索推理和SimpleQA等事实信息检索基准测试中表现优异[4] - 能够处理超过70次搜索查询的长程任务,上下文窗口长度达数十万token[20] - 展现出谨慎严谨的行为模式,主动进行额外搜索和交叉验证[35] - 具备迭代假设修正与自我纠错能力,可消除多来源信息冲突[35] 部署计划 - 已开始逐步向用户推出,可在Kimi内实现对任意主题的深入全面研究[11] - 计划在未来几个月内开源基础预训练模型及其强化学习模型[11] - 构建了基于Kubernetes的混合云架构,支持多副本部署,确保生产环境容错能力与高可用性[34]
三个大模型合作,1000次迭代,竟能像人类科学家一样发现方程
机器之心· 2025-06-21 13:06
AI4Science与符号回归技术进展 - 中国科学院自动化研究所提出DrSR框架,通过数据分析与经验归纳双轮驱动,实现类科学家的智能建模能力[1][2] - DrSR框架包含三位虚拟科学家角色:数据科学家、理论科学家、实验科学家,协同完成科学方程发现[3][7] - 该技术在物理、生物、化学、材料等跨学科建模任务中展现强大泛化能力,刷新当前最优性能[4][8] DrSR技术创新与工作机制 - 采用双路径推理机制:数据驱动的洞察生成+经验驱动的策略总结,形成闭环优化流程[16][18][28] - 包含三大核心模块:数据线索提炼(分析变量耦合/非线性趋势)、历史经验总结(建立Idea Library)、方程生成与拟合[19][20][23] - 通过残差分析定位未拟合数据段,动态优化提示质量,提升后续生成针对性[25] 性能表现与实验数据 - 在6大符号回归基准测试中,DrSR在5项取得最高准确率(Acc)和最低归一化均方误差(NMSE)[31] - 非线性阻尼振荡建模任务中达到99.94%准确率,误差低至1.8e-12,显著优于GPlearn/PySR等基线方法[31] - 收敛速度比LLM-SR快50%,有效方程生成比例高10-20%,OOD数据下误差稳定性优于同类方法[34][37][40] 典型应用案例 - 非线性阻尼振荡系统建模案例显示,DrSR在1000轮迭代内生成接近真实动力学的方程(0.8sin(x)-0.5xv-0.5v³-0.2x³),误差达10^-5级[46][48][52] - 展现三阶段智能行为:初期快速试错淘汰无效结构、中期融合非线性成分、后期精炼组合逼近真实方程[51][52] 技术应用与行业影响 - 已集成至ScienceOne智能科研平台,支持多学科可解释建模,不依赖特定大模型架构[57] - 当前局限包括输出随机性导致的冗余结构,未来将扩展多模态输入与持续学习机制[59][60][61] - 标志AI4Science从数据拟合向规律发掘演进的关键突破,推动科学智能进入新阶段[62]
ICML 2025 Oral | NAS老树开新花,NUS提出智能体超网,成本狂降55%
机器之心· 2025-06-21 12:36
多智能体系统研究突破 - 提出"智能体超网"(Agentic Supernet)概念,通过动态剪裁实现任务定制化团队,性能超越现有方法最高11.82%,推理成本仅45% [4][13] - 解决传统多智能体系统两大困境:资源浪费(简单任务调用复杂系统)和任务冲突(单一架构无法适应多领域) [7] - 采用神经网络架构搜索(NAS)思想,实现按需分配算子组合,完成范式转移 [10][12] 技术架构创新 - 三层核心机制:定义概率化超网→控制器动态采样→双轨进化优化 [15][16][21][26] - 智能体算子库包含I/O、CoT、ReAct、Debate等模块,支持自定义扩展 [17][22] - 控制器采用MoE混合专家策略,通过激活分数阈值实现早停机制 [23][24][28] 性能表现 - 六大基准测试(GSM8K/MATH/HumanEval等)平均得分83.59%,超越14个基线模型0.54%-11.82% [32] - MATH训练成本仅3.38美元,较AFlow降低6.8倍,优化时间53分钟远低于行业水平 [33] - 推理token消耗减少55%,API调用成本下降58%,实现性能与成本双优化 [33][34] 应用前景 - 展示跨模型迁移能力(gpt-4o-mini→Qwen-2-72b/llama-3-70b)和跨数据集泛化性(MATH→GSM8K) [39] - 支持未知算子归纳学习,未经训练的Debate模块可被合理激活使用 [39] - 为全自动化AI系统提供动态架构生成方案,推动集体智能发展 [38]
世界模型版《模拟人生》:AI虚拟小人街头演讲拉票,GPT-4o选举获胜
机器之心· 2025-06-21 12:36
虚拟社区技术 - 虚拟社区结合真实世界地理空间数据与生成模型,创建交互式开放世界场景,支持人类和机器人智能体的社交与物理互动[5][8] - 系统基于通用物理引擎和现实3D场景构建,人类智能体采用虚拟角色模拟框架,机器人模拟继承自Genesis引擎[8] - 通过LLM生成智能体角色及社交关系网络,每个智能体具备详细背景资料和活动时间表,形成有凝聚力的社群[9][10] 技术实现细节 - 场景生成组件使用生成模型增强纹理、精炼3D数据并创建交互对象,智能体生成组件利用LLM构建角色关系网络[13] - 开发在线流程清理地理空间数据噪声,包含网格简化、纹理细化等四步骤,已生成35个全球城市的带注释场景[17][18] - 集成自动化动态交通系统,基于OSM数据重建道路网络,模拟行人、车辆及公共交通的全球交通流[19] 应用场景与实验 - 导入宇树人形机器人、波士顿动力机器狗等设备,实现机器人与人类智能体的无缝互动[21] - 设计竞选任务验证智能体社交策略,GPT-4o主干候选人比GPT-3.5-turbo平均得票率高26%[23][25][26] - 社区助手任务中机器人合作完成搬运与递送,实验显示递送任务表现优于搬运任务[27][28] 研究目标与意义 - 旨在探索机器人协作竞争机制、人类社会关系发展及人机共存模式,推动社会智能研究规模化[29] - 提供统一框架模拟复杂社交互动,支持多智能体任务规划与适应性策略开发[23][24]