Workflow
主动式强化学习
icon
搜索文档
14B打败671B,微软rStar2-Agent在数学推理上超过DeepSeek-R1
36氪· 2025-09-02 15:36
现在,LLM 已经可以获得非常强大的推理能力,而其中关键便是测试时扩展(test-time scaling)。 近日,微软研究院的一个研究团队探索了使用主动式强化学习(agentic reinforcement learning)来实现这一目标,也就是说,模型会与专用工具环境中 的工具进行交互,并根据收到的反馈调整其推理方式。 而他们的探索成果便是rStar2-Agent,这是一种强大的主动式强化学习方法。使用该方法,这个微软团队训练了一个 14B 的推理模型rStar2-Agent-14B —— 该模型达到前沿级别的性能,媲美甚至超越了 671B 的 DeepSeek-R1! 通常而言,延长思维链(CoT)就可以延长「思考时间」,从而显著提升性能,尤其是当使用大规模强化学习和可验证奖励 (RLVR) 进行优化时。 然而,对于容易出现细微中间错误或需要创造性推理转变的难题,较长的思维链仍然存在根本性的局限性。在这些情况下,模型往往依赖内部的自我反 思,但这又常常无法发现错误,也无法在初始方法存在缺陷时进行自我纠正。 因此,模型不仅要能更长时间地思考,还应该要能「更聪明」地思考。为此,可以引入更高级的认知能力, ...
14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
机器之心· 2025-09-02 09:27
核心观点 - 微软研究院开发了rStar2-Agent主动式强化学习方法,通过高效基础架构、GRPO-RoC算法和优化训练方案,使14B参数模型在数学推理任务上达到或超越671B参数模型的性能 [2][12][25] 环境与问题描述 - 研究使用Python编程工具和解释器作为环境,拓宽模型行动空间并支持中间步骤验证 [6][9] - 环境复杂性引入噪声,错误代码导致反馈延迟和token浪费,仅结果奖励机制加剧低质量推理轨迹问题 [9] - 大规模训练需处理数万个并发工具调用,对基础设施要求极高 [9][10] 技术方案创新 - 构建高吞吐量代码环境,支持45K并发工具调用且平均反馈时间仅0.3秒 [14] - 采用动态负载均衡调度程序,根据GPU键值缓存容量分配请求以提升计算利用率 [15] - 提出GRPO-RoC算法:通过非对称采样保留故障模式作为负向信号,筛选高质量正向轨迹 [16][18] - 训练方案从非推理SFT开始,避免过拟合并保持响应简短,后续通过多阶段强化学习逐步提升难度 [21][22] 性能表现 - rStar2-Agent-14B在AIME24准确度达80.6%,超越o3-mini(medium)1.0%、DeepSeek-R1 0.8%和Claude Opus 4.0 3.6% [26] - AIME25准确度69.8%,HMMT25达52.7% [26] - 平均响应长度显著缩短:AIME24仅9339.7 token(对比DeepSeek-R1-Zero的14246.8 token) [29] - 泛化能力强:GPQA-Diamond科学推理达60.9%(超越DeepSeek-V3),BFCL v3工具使用任务60.8% [29] 训练效率 - 使用64块MI300X GPU一周完成训练 [16] - 仅需510个强化学习步骤达到前沿性能,远低于同类方法(如MiMo需175K步骤) [23][24]