混合注意力推理模型

搜索文档
MiniMax发布开源混合架构推理模型M1,M1所需的算力仅为DeepSeek R1的约30%
快讯· 2025-06-17 16:32
上海AI独角兽MiniMax正式开源推理模型MiniMax-M1(以下简称"M1")。MiniMax称,这是全球首个 开放权重的大规模混合注意力推理模型。凭借混合门控专家架构(Mixture-of-Experts,MoE)与 Lightning Attention 的结合,M1在性能表现和推理效率方面实现了显著突破。实测数据显示,M1系列在 长上下文理解、代码生成等生产力场景中超越多数闭源模型,仅微弱差距落后于顶尖闭源系统。 ...