Mistral Large 3模型发布 - 公司推出MoE大模型Mistral Large 3,采用41B active / 675B total的MoE架构,具备原生图像理解能力、256k上下文长度以及强大的多语言能力[1][3] - 模型在LMArena排名中位列开源模型第6,其ELO得分在开源大模型中稳居第一梯队,与Kimi K2打成平手,仅略低于DeepSeek v3.2[3][6] - 在MMLU、GPOA、SimpleQA、AMC、LiveCodeBench等多项基础任务上,Mistral Large 3(Base)与DeepSeek 37B、Kimi K2 127B保持同一水平,属于开源系第一梯队底模[8] - 模型采用Apache 2.0开源协议,并与NVIDIA深度合作,采用FP4格式并重写了Blackwell的注意力与MoE内核,优化了推理链路[10] - 在真实任务评估中,Mistral Large 3(Instruct)在通用任务和多语言任务里对DeepSeek V3.1、Kimi K2取得53%–60%的胜率[33] Ministral 3小模型系列 - 公司推出Ministral 3系列小模型,包括3B、8B、14B三种规格,每个规格均有base、instruct、reasoning三个版本,全部为多模态且开源[1][11] - Ministral 3的instruct版本在综合智能指数上得分分别为31(14B)、28(8B)、22(3B),全部超越上一代Mistral Small 3.2,且参数量多40%[11] - 小模型经过优化可部署于多种设备,包括DGX Spark、RTX PC、普通笔记本及Jetson等嵌入式板卡,实现从数据中心到边缘设备的覆盖[11][18] - Ministral 14B的底模在数学、知识问答、多语言任务中全面领先Gemma 13B和Qwen 1.8B,其reasoning版本在AIME'25等推理任务上领先Qwen 14B「Thinking」[23][25] - Ministral 14B(Instruction)在WildBench、Arena Hard、数学推理和多模态任务上全面领先Gemma 13B与Qwen 1.8B,指令调优后综合能力几乎碾压同量级模型[28] 性能与基准测试表现 - Mistral Large 3相比上一代Large 2提升了11分,达到38分,但仍未进入GPT-5、Gemini 3、Claude Opus等顶级专有模型所在的第一梯队[13] - 在Artificial Analysis的综合榜单中,前排被GPT-5、Gemini 3、Opus系列占据,DeepSeek和Qwen持续贴近第一梯队,Mistral Large 3则位于两者之间[13] - Ministral 14B(Reasoning)在AIME'25数学推理任务上达到85%的准确率,在数学和代码推理方面几乎是同量级模型的天花板[20][25] 战略定位与行业影响 - 公司战略聚焦于企业市场,首席科学家指出超过90%的企业任务可通过微调的小模型满足,直接针对OpenAI等闭源模型成本高、可控性差的痛点[29] - 公司提供定制化服务,派遣工程师进驻客户公司,帮助构建企业专属AI,目标是用14B模型在企业场景中替代70B、400B的大模型[31] - 公司构建平台化能力,包括Mistral Agents API、Magistral模型系列及AI Studio,形成从模型到工具链的完整生态[33][35] - 公司代表欧洲式“软件制造业”哲学,将AI能力做成标准件供用户随取随用,与美国的“云端神谕”模式形成对比,在全球AI版图中开辟了新路径[37][38]
AI三国杀:OpenAI狂卷,DeepSeek封神,却被Mistral偷了家?