Workflow
华为昇腾NPU
icon
搜索文档
智谱新模型也用DeepSeek的MLA,苹果M5就能跑
量子位· 2026-01-20 12:17
文章核心观点 - 智谱AI在上市后发布了其GLM-4系列的最新轻量级模型GLM-4.7-Flash,该模型采用创新的混合专家架构,在保持高性能的同时显著降低了计算成本,并已免费开放API调用 [1][2] 模型发布与定位 - 新模型为开源轻量级大语言模型GLM-4.7-Flash,直接替代前代GLM-4.5-Flash,其API已免费开放调用 [2] - 该模型是去年12月发布的旗舰模型GLM-4.7的轻量化版本,继承了GLM-4系列在编码和推理上的核心能力,并针对效率进行了专门优化 [7] - 官方定位该模型为“本地编程与智能体助手”,并推荐将其用于创意写作、翻译、长上下文任务及角色扮演场景 [4][8] 模型架构与技术细节 - 模型采用混合专家架构,总参数量为300亿,但实际推理时仅激活约30亿参数,大幅降低了计算开销 [4][10] - 模型首次采用了MLA架构,这一架构此前由DeepSeek-v2率先使用并验证有效 [12] - 从具体结构看,模型深度与GLM-4.5 Air和Qwen3-30B-A3B接近,但采用64个专家而非128个,激活时只调用5个 [13] - 模型配置细节显示,其最大位置嵌入为202,752,隐藏层数为47,词汇量为154,880 [12] 性能表现与评测 - 在SWE-bench Verified代码修复测试中,GLM-4.7-Flash获得59.2分,在“人类最后的考试”等评测中也显著超越同规模的Qwen3-30B和GPT-OSS-20B [4] - 经开发者实测,在配备32GB统一内存和M5芯片的苹果笔记本上,模型推理速度能达到每秒43个token [17] 部署与生态支持 - 模型发布不到12小时,HuggingFace、vLLM等主流平台就提供了day0支持 [14] - 官方在第一时间提供了对华为昇腾NPU的支持 [16] 定价策略与市场对比 - 在官方API平台上,基础版GLM-4.7-Flash完全免费,高速版GLM-4.7-FlashX价格也相当低廉 [18] - 根据定价表,GLM-4.7-Flash的输入、缓存输入、存储和输出费用均为免费 [19] - 对比同类模型,GLM-4.7-Flash在上下文长度支持和输出token价格上有优势,但目前延迟和吞吐量还有待优化 [19]