推理大模型1年内就会撞墙,性能无法再扩展几个数量级 | FrontierMath团队最新研究
量子位·2025-05-13 15:11
推理模型算力需求增长趋势 - 大模型推理训练可能在一年内面临增长瓶颈[1] - 推理模型目前保持每3-5个月以10倍速度增长的态势[2] - 若推理训练算力需求见顶,增长率将收敛至每年约4倍[32] 推理训练算力投入现状 - OpenAI训练o3所需算力比o1提升10倍,主要花费在训练阶段[6][9] - DeepSeek-R1推理训练使用算力约为6e23 FLOP,成本约100万美元[16] - 英伟达Llama-Nemotron Ultra推理阶段耗时140000 H100小时,约1e23 FLOP,低于基础模型预训练成本1%[20] - 微软Phi-4-reasoning推理阶段成本低于1e20 FLOP,可能小于预训练算力成本的0.01%[22] 推理模型性能与扩展性 - 推理模型在数学和编程任务上呈现对数线性增长规律[29][31] - 目前最前沿推理模型的推理训练规模尚未见顶,仍具扩展潜力[26][27] - 模型答题准确率随推理训练步骤增加而提升[29] 推理训练面临的挑战 - 数据不足可能成为推理模型发展的制约因素[35] - 推理训练在规律性较强领域(如数学、编程)有效,但泛化到其他领域存在不确定性[36] - 即使算力增长放缓,推理模型仍可能通过其他方式持续进化[38]