Workflow
Newton - Schulz Matrix Iteration
icon
搜索文档
Muon作者仅用一篇博客,就被OpenAI看中了
机器之心· 2025-06-16 12:04
核心观点 - AI行业对学术影响力的衡量标准正在发生变化,顶级会议论文不再是唯一评价指标,OpenAI等机构更注重实际能力而非传统学术成果[1][2][3] - Hyperbolic CEO和OpenAI成员Keller Jordan的案例表明,通过高质量博客展示研究成果也能获得顶级机构认可[3][8] - Muon优化器通过创新设计显著提升神经网络训练效率,在多项基准测试中打破速度记录[6][12][22] Muon优化器技术突破 性能表现 - 在CIFAR-10数据集上,训练速度从3.3秒提升至2.6秒(准确率保持94%)[22] - FineWeb任务训练速度提升1.35倍,验证损失降至3.28[22] - 1.5B参数Transformer训练时间从13.3小时缩短至10小时(H100集群)[22] - 在774M和1.5B参数规模下持续展现加速效果[22] 核心技术 - 采用牛顿-舒尔茨迭代正交化更新矩阵,5次迭代即可收敛[36][49] - 优化后系数(3.4445,4.7750,2.0315)实现x=0处的快速收敛[47] - FLOP开销低于1%,适用于大规模训练(如Llama 405B仅增加0.5%开销)[56][59] - 与Shampoo优化器相比,避免四次方根求逆的高计算成本[63] 应用设计 - 需配合AdamW优化输入/输出层参数[66] - 对Transformer的QKV参数分别处理效果更佳[69] - 默认采用Nesterov动量加速收敛[68] - 支持bfloat16精度运行,避免float32的数值稳定性问题[36] 行业影响 - OpenAI等机构的人才选拔转向能力导向,打破传统论文发表壁垒[8] - 月之暗面团队通过引入AdamW权重衰减机制进一步优化Muon性能[78] - Essential AI的论文证实Muon能扩展帕累托边界,提升大规模训练经济性[81] - 行业需要建立更严格的优化器评估标准,避免基线调优不足的研究缺陷[72][74]