谷歌发布Gemini 3.1 Flash-Lite模型 - 公司正式推出Gemini 3.1 Flash-Lite模型,主打轻量快速与极致性价比,是Gemini 3系列中速度最快、成本最低的模型 [1][2][3][9] - 模型定价极具竞争力,每百万输入token成本为0.25美元,每百万输出token成本为1.5美元 [5] - 性能相比前代显著提升,首次响应token时间比Gemini 2.5 Flash快2.5倍,输出速度提升45% [7] - 模型专为大规模智能应用而生,能够低成本高效率地实现批量部署 [8][26] - 模型已通过Google AI Studio中的Gemini API和Vertex AI平台提供 [9] 模型性能基准测试表现 - 在Artificial Analysis基准测试中,输出速度显著优于Gemini 2.5 Flash [10] - 在Arena测评中获得1432分,与Grok-4.1-fast水平相当,在创意写作和长篇查询方面表现出色,领跑低价位段模型 [18] - 在Code Arena中与Qwen3-coder并列第35名,表现出优秀的智能Web开发能力 [19] - 在GPQA Diamond和MMLU Pro基准测试中分别获得86.9%和76.8%的分数,超越了前几代更大的Gemini模型 [21] - 根据基准测试表格,在多项指标上优于或与GPT-5 mini、Claude 4.5 Haiku等市面同等轻量级模型竞争 [16][22] 模型核心功能与定位 - 模型支持可调思考层级,开发者可根据任务复杂度自由选择模型的思考深度,以平衡速度与效果 [23][24] - 适用于处理高频大量请求场景,既能处理低成本批量任务(如长文本翻译),也能执行需要深度思考的任务(如生成用户界面、执行复杂逻辑) [24][25] - 模型定位与Gemini 3 Flash不同,后者侧重逻辑推理效率,而Gemini 3.1 Flash-Lite更关注极致性价比 [15] - 官方示例显示,模型能迅速将上百种不同类别的产品填充到电子商务线框图中 [25] OpenAI的竞争性回应 - 在Gemini 3.1 Flash-Lite发布两小时后,OpenAI推出GPT-5.3 Instant作为回应,同样主打即时快速响应,但更关注用户交互体验 [27][29] - 网友实测对比显示,在编程测试中,GPT-5.3 Instant给出的代码方案更完整和工程化,更接近真实上线情况,而Gemini 3.1 Flash-Lite的输出更简洁直接 [30][31][32] - 在深度推理测试中,两款模型表现相当,结果均正确且推导过程清晰,但GPT-5.3 Instant会额外提供表格和通俗解释以使结果更易懂 [36][37][38] - 在大规模吞吐和成本控制方面,Gemini 3.1 Flash-Lite被认为更具优势 [41]
谷歌Gemini最强性价比模型发布,1块8读完3本三体