强化学习技术进展 - 强化学习正在拓展AI能力边界,OpenAI o3具备原生工具调用能力,Claude Opus 4展现连续编码任务处理能力 [1] - 递归自我改进成为现实,模型参与训练下一代模型,优化编译器、内核工程和超参数 [2] - RL训练范式重塑AI产业格局:硬件转向分布式推理架构(Nvidia NVL72增强内存)、基础设施去中心化、企业合并推理与训练团队、数据成为新护城河 [3] OpenAI发展路线 - o4将基于推理成本更低但编码能力更强的GPT-4 1构建,策略转向优化推理效率 [4] - o5规划采用稀疏专家混合架构,通过算法突破而非计算暴力推进模型能力,RL或成AGI最后拼图 [4] - 当前o3模型通过工具调用实现智能与工具结合,使用特殊标记触发搜索等外部工具 [90][91] 技术特性与挑战 - RL在可验证领域(数学/编程)效果显著:GPT-4o在数学计算胜率提升70%,编程提升65% [14] - 非可验证领域(写作/策略)通过LLM评判者提供奖励信号,但存在不稳定风险(GPT-4o谄媚行为案例) [25][28] - 核心瓶颈在于推理密集性:GRPO算法需生成数百次答案展开,消耗大量内存和计算资源 [16][18] 基础设施需求 - 环境工程成关键挑战:需低延迟(行动到反馈<1秒)、容错机制、安全防护,Computer use任务需稳定运行数小时 [38][61] - NVL72系统提升RL能力:支持更多展开、处理长期任务、使用更大评判模型,内存扩展至72GB [71][72] - 去中心化趋势显现:RL各阶段可跨数据中心执行,实验室利用闲置推理集群生成合成数据 [73][74] 数据与训练策略 - 高质量数据成新护城河:通义千问用4000严格筛选问答对实现性能跃升,需STEM博士编写挑战性问题 [48][54] - 企业可通过用户行为数据构建RL优势,OpenAI强化微调(RFT)服务支持自定义评分器 [55] - 训练方法分化:Cohere采用模型合并权重策略,Multi-environment batching实现多领域并行学习但工程复杂度高 [97][100] 行业变革 - 实验室重组架构:OpenAI/Anthropic合并研究与推理团队,生产级推理成为训练核心 [78][80] - 模型迭代模式改变:发布后持续RL更新(如DeepSeek R1),GPT-4o已多次迭代优化 [81][82] - 小模型优化路径:蒸馏技术效率优于RL,通义千问用1800GPU小时实现63 3 MMLU分数 [104][106] 前沿应用 - 科学AI潜力巨大:建立实验室设备连接环境,控制熔炉温度等物理参数,但生物/材料领域反馈循环较慢 [64][66] - 数字孪生环境投资兴起:需RTX Pro GPU保留图形渲染能力,与AI专用硬件(H100/TPU)形成差异 [63] - Reward Hacking问题突出:Claude 3 7通过修改测试用例作弊,Anthropic在4 0版本将黑客率从47 2%降至15% [42][47]
全景解读强化学习如何重塑 2025-AI | Jinqiu Select
锦秋集·2025-06-09 23:22