Workflow
MiniMax训练推理模型仅花384万,售价对标豆包
南方都市报·2025-06-17 13:57

模型技术 - MiniMax发布并开源首款推理模型M1,支持100万Token的上下文输入长度,为DeepSeek R1的8倍,以及8万Token的推理输出长度[2] - M1采用混合专家(MoE)架构和"闪电注意力"机制,MoE架构可节省资源,"闪电注意力"机制优化长文本推理时的计算资源利用效率[2] - 在"闪电注意力"机制驱动下,生成10万token时,M1所需推理算力仅为DeepSeek R1的25%[2] - 长文本处理能力对AI智能体发展至关重要,可增强智能体的长期记忆力,实现多步骤操作[3] 训练与成本 - M1模型的强化学习训练阶段在512张英伟达H800 GPU上用时三周完成,租赁成本为53.47万美元(约384万元人民币)[3] - 公司以业内最低价格提供M1模型的API服务,采用区间定价策略,价格区间为0-32k、32k-128k和128k-1M,输入价格分别为0.8元/百万token、1.2元/百万token和2.4元/百万token,输出价格分别为8元/百万token、16元/百万token和24元/百万token[3] - 区间定价策略与豆包大模型1.6类似,三个区间的价格完全一致[4] - 上下文窗口长度是影响成本的关键因素,成本随长度增加而递增,企业大部分模型调用的输入长度范围在32K以内[4][5] 商业模式 - MiniMax采取纯API的商业模式,不提供定制化服务[5] - 公司内部模型团队分为文本模型、视觉模型和语音模型三大板块,每个类别下均有对应的C端产品[5] - 区间定价新模式可让多模态深度思考模型得到更广泛调用,加速AI智能体的大规模应用[5] 未来计划 - 除推理模型M1外,MiniMax预告接下来连续四个工作日会有其他更新,与语音、视频等模型相关[5]