
公司动态 - MiniMax宣布连续五天发布重要更新,首日开源推理模型MiniMax-M1 [1] - MiniMax-M1在多项基准测试中表现优异,比肩DeepSeek-R1、Qwen3等开源模型,接近海外领先模型 [3] - 模型训练效率超出预期,仅用3周时间、512块H800 GPU完成强化学习训练阶段,算力租赁成本53.47万美元 [3] - MiniMax-M1在编程能力测试中表现突出,一次通过"拆烟囱"编程案例,优于DeepSeek-R1-0528和Gemini-2.5-Pro [3] - 模型中文写作严谨优先,幻觉较低,注重指令遵循 [5] - MiniMax-M1拥有100万上下文窗口长度,与Gemini 2.5 Pro相当,是DeepSeek R1的8倍 [5] - 在长上下文理解任务(MRCR)中表现优异,超越所有开源权重模型和部分海外顶尖模型,全球排名第二 [5] - 在TAU-bench测试中表现出色,超越DeepSeeK-R1-0528和Gemini-2.5 Pro,仅次于OpenAI o3和Claude 4 Opus [7] - 在代码能力(SWE-bench)上显著超越大部分开源模型,仅微弱差距次于DeepSeek最新发布的R1 [7] - MiniMax提出创新强化学习算法CISPO,在数学AIME实验中比字节DAPO算法收敛性能快一倍 [8] - 模型定价采用阶梯式,对标DeepSeek-R1性价比更高 [8] - MiniMax预告后续四天将有更多更新,业界预期海螺新版本即将亮相 [9] 行业动态 - 月之暗面同日开源编程模型Kimi-Dev-72B,基于阿里云Qwen2.5-72B微调 [8] - Kimi-Dev-72B在SWE-bench编程基准测试中取得全球最高开源模型水平,成绩超过新版DeepSeek-R1 [8] - 但实际测试显示Kimi-Dev-72B生成的代码需要修改多个bug才能运行,引发过拟合质疑 [9] - AI六小龙经过半年沉寂后重新加入大模型竞争 [9] - 云启资本合伙人陈昱表示长文本能力对社交应用、情感陪伴应用和Agent是关键技术 [7] 技术亮点 - MiniMax-M1训练材料足够新,思考时多次反刍成功避坑 [3] - 闪电注意力机制为主的混合架构使长文本处理具有算力效率优势,8万Token推理只需DeepSeek R1约30%算力 [7] - CISPO强化学习算法显著优于DeepSeek早期使用的GRPO [8] - 模型在样式和光影效果方面仍有不足,创意内容生成能力有限 [5]