千问大模型:Qwen3.5-Flash来袭,三款中等规模模型全开源
新浪财经·2026-02-25 14:44

公司产品发布 - 千问大模型于2月25日正式宣布开源其最新一代千问3.5系列的三款中等规模模型,分别为Qwen3.5-35B-A3B、Qwen3.5-122B-A10B和Qwen3.5-27B [1][2][12] - 公司同步开源了Qwen3.5-35B-A3B-Base基座模型,以支持开源社区的深入研究、微调创新与二次开发 [1][7][13] - 三款开源模型均已在国内的魔搭社区和国际的Hugging Face平台上架 [7][19] 技术性能与架构 - 新模型实现了性能超越规模,Qwen3.5-35B-A3B的表现已超越前代更大规模的Qwen3-235B-A22B-2507及Qwen3-VL-235B-A22B模型 [1][2][13] - Qwen3.5-122B-A10B与27B版本进一步缩小了中等规模模型与前沿模型的差距,尤其在复杂代理场景中表现优异 [1][2][13] - 性能提升源于架构优化,而非参数堆叠,具体采用了混合注意力机制与高稀疏的MoE(混合专家)架构创新,并基于更大规模的文本和视觉混合Token进行训练 [3][10][15] - Qwen3.5-122B-A10B与Qwen3.5-35B-A3B以更小的总参数和激活参数量,实现了更大的性能提升 [3][10][15] - 在指令遵循、博士级别推理、数学推理、多语言知识、Agent工具调用、Agentic Coding等多个权威评测榜单上,新模型超越了前代更大规模模型及GPT-5 mini、gpt-oss-120b等竞争对手 [3][10][15] 产品特性与应用 - Qwen3.5-27B是首个密集(Dense)模型,拥有更强的Agent能力和原生多模态能力,在工具调用、搜索、编程等多个Agent评测中超过GPT-5 mini,在多项视觉理解榜单中超过Qwen3-VL旗舰模型和Claude Sonnet 4.5 [4][16] - Qwen3.5-27B可运行于单个GPU,对于本地部署极为友好 [4][16] - 公司推出了Qwen3.5-Flash(即Qwen3.5-35B-A3B的生产版本)API服务,在阿里云百炼平台上线,定价为每百万Token低至0.2元人民币,主打高性价比 [5][17] - Qwen3.5-Flash默认支持1M(100万)的超长上下文长度,满足长文档与复杂任务处理需求 [6][18] - 该API服务提供官方内置工具支持,旨在降低开发者集成成本,加速应用落地 [7][19]