模型发布与定位 - 阿里于除夕发布全新一代开源大模型Qwen3.5-Plus,登顶最强开源模型宝座[1] - 该模型是阿里春节档发布的第一弹,后续几天将继续开源多款适用于不同场景的Qwen3.5模型,旗舰版Qwen3.5-Max将在年后压轴登场[11][12][13] 核心性能表现 - 模型总参数为3970亿,单次推理仅激活170亿参数,激活比例不到5%,性能却超越万亿参数的Qwen3-Max[4][55] - 在MMLU-Pro测试中得分87.8分,超过GPT-5.2[17] - 在GPQA博士级科学推理评测基准中斩获88.4分,超越Claude 4.5[18] - 在IFBench榜单中以76.5分刷新指令遵循最高纪录[20] - 在Agent能力评测(BFCL-V4、Browsecomp)中评分全面超越Gemini-3-Pro[20] 多模态能力 - 模型从预训练第一天起就基于视觉和文本的混合Token数据,拥有原生多模态理解能力[22][23] - 在多模态主流评测(MathVison、RealWorldQA、CC_OCR、RefCOCO-avg、MLVU)中几乎横扫所有指标,刷新开源模型天花板[23] - 在学科解题、任务规划与物理空间推理等高难度场景上,表现出超越专项模型Qwen3-VL的综合素养[24] - 支持长达2小时的超长视频直接输入,配合1M Tokens原生上下文,能进行精准分析与摘要[26] - 实现视觉理解与代码逻辑的原生融合,可将手绘界面草图重构为高质量前端代码,并通过单张截图定位修复UI缺陷[28] 技术架构创新 - 对Transformer架构进行深度重构,引入四项关键技术以平衡性能与效率[48] - 引入混合注意力机制,根据信息重要程度动态分配计算资源,提升长上下文处理效率[53] - 采用极致稀疏的MoE架构,总参数3970亿,单次推理激活仅170亿,激活比例不到5%[55] - 采用原生多Token预测机制,使推理速度接近翻倍[56] - 引入NeurIPS 2025最佳论文的注意力门控机制等优化,解决稀疏架构训练稳定性问题[57][59] 效率与成本优势 - 新架构使训练成本降幅高达90%[60] - 与Qwen3-Max相比,Qwen3.5-Plus部署显存占用降低60%,最大推理吞吐量可提升至19倍[5][60] - 阿里云百炼为Qwen3.5 API提供极具竞争力的定价:百万Tokens输入低至0.8元,相当于同级别模型Gemini-3-pro价格的1/18[9] - 原生多模态训练方案使整体训练吞吐量与纯文本基座模型几乎无差别,激活内存减少约一半,训练速度额外提升10%[65] - 大规模强化学习框架将智能体训练效率提升了3到5倍[66] 语言支持与可及性 - Qwen3.5首次实现201种语言全覆盖,词表规模从15万大幅扩充至25万,小语种编码效率最高提升60%[9] - 普通用户可登录千问APP或PC端免费体验Qwen3.5模型,开发者可前往魔搭社区或HuggingFace下载部署[9] 行业影响与开源生态 - 自2023年开源以来,阿里已累计开源400多个模型,覆盖全尺寸和全模态领域[71] - 千问模型全球下载量突破10亿次,单月下载量超过第2名到第8名的总和,开发者基于千问开发的衍生模型已超过20万个[72] - 千问已成为全球最大AI大模型族群,其开源开放、低成本和广泛语言支持的策略旨在让更多人用上顶尖模型[73]
最强开源大模型除夕登场!397B参数千问3.5超越Gemini 3,百万Tokens低至8毛