Workflow
模型分层
icon
搜索文档
OpenAI和国产模型悄悄打起“价格战”
第一财经· 2026-03-18 18:27
OpenAI发布两款小模型GPT-5.4 mini与nano - 公司于北京时间2026年3月18日宣布推出两款小模型GPT-5.4 mini与GPT-5.4 nano,官方称其为内部“迄今为止能力最强的小模型”,旨在以更低延迟和更高性价比为智能体应用提供新选项[3] - 两款小模型能力接近旗舰模型GPT-5.4,但针对高频工作负载做了优化,标志着业界不再单纯追逐参数更大的旗舰模型,而是转向推出更多更快更省的小模型[3] 模型性能与定位 - **GPT-5.4 mini**:主打“速度与性能的平衡”,运行速度是前代的两倍以上,在多项评估中性能接近旗舰模型,针对编码、计算机使用、多模态理解和子智能体进行了优化[7] - **GPT-5.4 nano**:是最小、最便宜的GPT-5.4系列版本,性能略逊于mini,适合较轻的任务[7] - **性能数据**:GPT-5.4 mini在编程基准SWE-bench Pro上得分54.4%,接近GPT-5.4的57.7%;在计算机操控基准OSWorld-Verified上得分72.1%,接近GPT-5.4的75%;在通用智能测试GPQA Diamond中得分88.0%,与GPT-5.4的93.0%差距在5%左右[4][7][8] - **应用场景**:GPT-5.4 mini为延迟敏感场景打造,如需要即时响应的代码助手、快速完成辅助任务的子智能体、实时解析截图的计算机使用系统以及实时推理图像的多模态应用[8] 定价与成本 - **GPT-5.4 mini定价**:每百万token输入0.75美元,输出4.5美元,公司称其“仅消耗GPT-5.4配额的30%”,开发者能在Codex中以约三分之一的成本处理简单编程任务[9] - **GPT-5.4 nano定价**:每百万token输入0.2美元,输出1.25美元,价格约为mini的1/4[10] - **成本对比**:GPT-5.4 mini输出价格(4.5美元/百万token)是DeepSeek V3.2(0.42美元/百万token)的约10.7倍,是MiniMax M2.5(1.2美元/百万token)的3.75倍,也高于Kimi-K2.5(3美元/百万token)和谷歌Gemini 3 Flash(3美元/百万token)[16] 行业战略意义与智能体系统构建 - **战略意义**:此次发布是公司补齐智能体时代产品拼图的关键一步,意味着在AI进入真实业务后,模型分层会越来越重要,未来关注点是如何搭建模型系统,将不同成本和能力的任务分配给合适的模型[4][10] - **系统构建模式**:行业共识是,在智能体系统搭建中,会用一个较贵、表现较好的旗舰大模型作为“大脑”进行整体规划和复杂决策,然后将高频且简单的执行工作分配给性价比高的小模型[12] - **公司产品组合**:在Codex中,GPT-5.4等大模型负责处理规划、协作和最终判定,同时将具体的子任务并行分配给GPT-5.4 mini子智能体,例如搜索代码库、审阅大文件或处理辅助文档[13] 市场竞争与性价比争议 - **性价比对比**:在性价比方面,中国头部模型占据主导,例如DeepSeek V3.2、MiniMax-M2.5、Kimi-K2.5等模型在价格上显著低于GPT-5.4 mini,有海外开发者认为GPT-5.4 mini“发布即失败”[5][14][16] - **基准测试参考价值**:有观点认为基准测试的参考价值正在下降,真正的胜负需在实际任务中检验,开发者更看重模型在真实业务场景中的能力、稳定性与集成体验,而非单纯的价格或排名[5][17][18] - **开发者观点**:有开发者指出,价格便宜但可靠性降低的模型可能因重试和调试时间而付出更高代价,模型最重要的考量是与工具集成的效果、能否节省生产时间以及在极端情况下的稳定性[17][18]