Workflow
MiniCPM4
icon
搜索文档
长文本推理 5 倍提速!面壁MiniCPM4 端侧模型发布,0.5B模型效果秒杀同级
AI前线· 2025-06-12 14:07
Github 链接:https://github.com/openbmb/minicpm Huggingface 链接:https://huggingface.co/collections/openbmb/minicpm-4- 6841ab29d180257e940baa9b 整理 | 华卫 近日,新一代"面壁小钢炮" MiniCPM4.0 端侧模型发布,拥有 8B 、0.5B 两种参数规模 。 一款 8B 稀疏闪电版,带来端侧性能大跃升;一款 0.5B "以小博大",适配广泛终端场景。 模型相关链接 Model Scope 链接:https://www.modelscope.cn/collections/MiniCPM-4-ec015560e8c84d 截至目前,面壁小钢炮 MiniCPM 系列全平台下载量累计破 1000 万。 据介绍,MiniCPM4.0 -8B 是首个原生稀疏模型,5% 的极高稀疏度加持系统级创新技术的大爆发, 让长文本、深思考在端侧真正跑起来。在 MMLU、CEval、MATH500、HumanEval 等基准测试中, MiniCPM4.0 -8B 以仅 22% 的训练开销,性能比肩 ...
苹果虽迟但到,端侧AI加速爆发,AI新势力抢先圈地突围
36氪· 2025-06-12 07:56
端侧模型的产业坐标系正在被重塑! 一方面,10日凌晨,AI浓度大大降低的苹果WWDC中,苹果智能(Apple Intelligence)正加速融入到系统各个功能中,同时苹果宣布向所有App开放权限 允许开发者直接访问苹果智能核心的设备端大语言模型,提出"Foundation Models框架"也引发了不小的讨论;另一方面,上周面壁智能发新一代面壁小钢 炮MiniCPM4.0端侧模型,0.5B模型性能超Qwen-3-0.6B、以及参数规模1B的Llama 3.2、Gemma3。 | Models | Qwen3 | Llama3.2 | Gemma3 | MiniCPM4 | BRCPM4 | BitCPM4 | Models | Qwen3 | GLM4 | Gemma3 | LLaMA3.1 | Phi4 | MiniCPM4 | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | 參数量 | 0.68 | 1B | 1B | 0.5B | 0.5B | 1B | 参数量 | 88 | ...
面壁小钢炮4.0发布:性能比肩 Qwen-3-8B,极限220倍提速
新浪科技· 2025-06-10 17:37
新浪科技讯 6月10日下午消息,近日,面壁智能第四代"面壁小钢炮" MiniCPM4.0 端侧模型(代号"前进 四")发布。据悉,第四代小钢炮拥有 8B 、0.5B两种参数规模,实现了同级最佳的模型性能。可让长 文本、深思考在端侧真正跑起来,实现220倍极限加速。 据悉,MiniCPM 4.0 模型采用的InfLLMv2稀疏注意力架构改变了传统 Transformer 模型的相关性计算方 式,有效摆脱了逐字重复计算的低效,将稀疏度从行业普遍的40%-50%,降至极致的5%,注意力层仅 需1/10的计算量即可完成长文本计算。且对算子底层重写,进一步加速提升,并使得对文本相关性精准 性大大提升。 值得一提的是,DeepSeek 使用的长文本处理架构NSA(Native Sparse Attention)也引用并采用了与 InfLLM相同的分块注意力计算思路,但其对于短文本的推理较慢,InfLLMv2则很好地解决了NSA在短 文本推理上的短板。 在缓存消耗上,MiniCPM 4.0-8B在 128K 长文本场景下相较于Qwen3-8B仅需 1/4 的缓存存储空间。在速 度、性能飙升的同时,又做到了模型极致压缩,让端 ...
面壁MiniCPM4端侧模型发布:长文本推理 5 倍提速,0.5B 模型拿下新SOTA
AI科技大本营· 2025-06-10 17:31
MiniCPM4.0 -0.5B 在性能上,也展现出惊人的以小博大—— 在MMLU、CEval、BBH、HumanEval等基准测试中,MiniCPM4.0 -0.5B性能秒杀同级 的 Qwen-3-0.6B、Llama 3.2、Gemma3,并通过原生QAT技术实现几乎不掉点的int4量化,实现了 600 Token/s 的极速推理速度。 模型相关链接 https://arxiv.org/pdf/2506.07900 「前进四」速度狂飙,快至220 倍! 2025 智源大会,新一代「面壁小钢炮」 MiniCPM4.0 端侧模型发布。一款 8B 稀疏闪电版,带来端侧性能创新式大跃升;一款 0.5B 实力演绎以小博 大,适配广泛终端场景。 MiniCPM4.0 -8B 是首个原生稀疏模型,5%的极高稀疏度加持系统级创新技术的大爆发,让长文本、深思考在端侧真正跑起来,宣告了端侧长文本时 代到来。 MiniCPM4.0 -8B 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅 22% 的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。 代号「前进四」,小钢炮 Mini ...
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源
量子位· 2025-06-10 15:35
模型性能与效率 - MiniCPM4提供8B和0.5B两种参数规模,仅使用同级别开源模型22%的训练开销就达到同级别最优性能 [1] - MiniCPM4-8B是首个开源原生稀疏模型,5%极高稀疏度支持长文本和深思考在端侧运行 [2] - 在MMLU等基准测试中,MiniCPM4-8B性能比肩Qwen-3-8B,超越Gemma-3-12B;0.5B版本超越同级Qwen-3-0.6B等模型 [3] - 在端侧芯片上实现长文本处理5倍常规加速与极限场景百倍加速 [4] 技术创新架构 - 采用高效稀疏注意力架构InfLLM v2,保持性能同时实现高效长上下文处理 [8] - InfLLM v2不引入额外参数,短序列推理速度不受影响 [10] - 相比NSA减少60%上下文选择计算成本 [11] - 上下文分块分区域处理,实现注意力层智能化选择机制 [14] 推理加速技术 - 构建轻量化CUDA推理框架CPM.cu与跨平台部署框架ArkInfer [20] - 提出FR-Spec词表剪枝技术,降低75%计算开销,实现2倍生成加速 [26][28][29] - 开发前缀感知GPTQ方法,排除初始词元干扰提升量化质量 [31][32] - 采用位置感知校准策略,消除初始词元统计偏差 [33] 数据与训练优化 - 仅使用8T词元达到Qwen3用36T词元的效果 [56] - 提出UltraClean高能力密度数据筛选方法,构建1T+高质量中英文语料 [61][71] - 开发UltraChat-v2合成数据框架,覆盖知识应用等五大技能领域 [77] - ModelTunnel v2预训练策略搜索仅需32GPU机时,大幅降低超参数搜索开销 [88] 应用场景表现 - 在Jetson AGX Orin上实现7倍解码加速,长序列处理优势明显 [108][109] - MiniCPM4-8B超越Gemma3-12B和Phi4-14B,0.5B版本超越Llama3.2-1B [114] - 训练数据量仅为Qwen3的22%但性能相当 [116] - 在128K上下文窗口达到100%准确率,稀疏度仅5% [119]
面壁小钢炮4.0原生稀疏模型发布:最高220倍提速,开启端侧长文本时代
IPO早知道· 2025-06-10 10:39
首个系统级上下文稀疏化高效创新模型。 本文为IPO早知道原创 作者| Stone Jin 微信公众号|ipozaozhidao 据 IPO早知道消息,面壁智能于日前举行的 2025智源大会 上发布了 新一代「面壁小钢炮」 MiniCPM4.0端侧模型发布 。 一款 8B稀疏闪电版,带来端侧性能创新式大跃升;一款0.5B实力演 绎以小博大,适配广泛终端场景。 值得一提的是, 第四代小钢炮推出了首个原生稀疏模型, 5%的极高稀疏度加持系统级创新技术的 大爆发,让长文本、深思考在端侧真正跑起来,宣告了端侧长文本时代到来 ; 220倍极限加速,一 半参数翻倍性能的表现, 则继续 带来端侧基模最极致表现。 具体来讲, 面对此前端侧模型长文本「龟速推理」业界难题, MiniCPM 4-8B「闪电稀疏版」, 采用了新一代上下文稀疏高效架构 ,相较于同等参数规模端侧模型实现了长文本推理速度 5倍常规 加速以及最高220倍加速(显存受限极限场景下测出),真正让端侧模型长文本推理实现了「快如闪 电」的质变。此外,注意力机制上实现了高效双频换挡,长文本用稀疏,短文本用稠密,切换快如 流。 同时, MiniCPM 4.0推出端侧性能 ...