阿里巴巴发布全新一代开源大模型Qwen 3.5-Plus - 阿里巴巴于除夕当天正式开源全新一代大模型Qwen 3.5-Plus [2] - 模型性能对标谷歌Gemini 3 Pro,并在多个关键基准中实现超越 [3] - API定价极具竞争力,低至每百万Token 0.8元人民币,仅为Gemini 3 Pro价格的1/18 [3] - 在当前大模型进入“性能趋同、成本博弈”的阶段,这一组合精准击中了行业核心痛点 [4] 模型架构与性能的重大革新 - 千问3.5并非参数规模的线性升级,而是一次底层模型架构的全面革新 [6] - 模型采用混合专家架构,总参数规模为3970亿,但单次激活参数仅170亿 [7] - 基于视觉和文本混合token进行预训练,大幅新增中英文、多语言、STEM和推理数据 [7] - 以不到40%的参数量获得了超万亿参数的Qwen3-Max基座模型的顶尖性能 [7] - 综合性能超过万亿参数规模的Qwen3-Max,同时显存占用降低约60%,推理效率显著提升,最大推理吞吐量可提升至19倍 [8] 在多项关键基准测试中表现卓越 - 在MMLU-Pro知识推理基准中获得87.8分,超越GPT-5.2 [12] - 在GPQA博士级难题基准中获得88.4分,高于Claude 4.5 [12] - 在IFBench指令遵循基准中获得76.5分,刷新当前模型纪录 [12] - 在通用Agent评测和搜索Agent评测中,整体表现均超过Gemini 3 Pro与GPT-5.2 [12] 原生多模态能力实现飞跃 - 在多模态推理、通用视觉问答、文本识别、文件理解、空间智能、视频理解等众多权威评测中均斩获最佳性能 [13] - 相比千问专项视觉模型Qwen3-VL,在学科解题、任务规划与物理空间推理等任务上表现更好 [13] - 支持长达2小时(对应1M token上下文)的视频直接输入,适用于长视频内容分析与摘要生成 [13] - 实现视觉理解与代码能力的原生融合,可将手绘界面草图直接转为可用的前端代码,一张截图就能定位并修复UI问题 [13] 核心技术突破与训练优化 - 性能跃升源于对Transformer经典架构的重大创新,融入了自研的、曾获NeurIPS 2025最佳论文的门控技术 [17] - 结合线性注意力机制与稀疏混合专家架构,实现了397B总参数激活仅17B的极致效率 [17] - 在32K上下文场景中,推理吞吐量可提升8.6倍;在256K超长上下文情况下,推理吞吐量最大提升至19倍 [17] - 采用结合FP8与FP32的混合精度策略,使激活内存占用减少约50%,同时训练速度提升约10% [21] - 构建了可扩展的异步强化学习框架,在端到端训练过程中可实现约3至5倍的加速,并支持插件式智能体扩展至百万级规模 [22] 开源生态与开发者社区影响 - 自2023年启动开源以来,公司已累计开源400余个千问模型 [22] - 千问模型的全球累计下载量已超过10亿次,单月下载量超过DeepSeek、Meta、OpenAI、智谱、Kimi、MiniMax等多个模型的合计水平 [22] - 开发者基于千问模型构建的衍生模型数量已超过20万 [22] - 语言支持范围已扩展至201种语言,词表规模由15万增加至25万,在部分小语种场景下编码效率最高可提升约60% [22] - 千问APP、PC端已第一时间接入Qwen 3.5-Plus模型,开发者可通过魔搭社区、HuggingFace下载或通过阿里云百炼获取API服务 [23] 海外技术社区的积极反响 - 海外社区注意到模型在UI设计能力上的出色表现,认为其对低代码开发、应用原型设计等场景具有直接价值 [26] - 模型扩展支持201种语言获得好评,超大规模语言覆盖正从“参数指标”转变为真实可感知的使用体验 [26] - 有评论认为,此次发布标志着行业竞争正转向“智能体人工智能”,模型不仅会说话,还会在真实应用中采取行动,执行任务 [28] - 社区将Qwen 3.5 Plus视为不仅是性能升级,更是迈向“可执行智能体”的重要一步 [29]
阿里除夕开源“王炸”千问 3.5-Plus ,性能媲美Gemini 3 Pro、Claude 4.5 Opus,百万 Token 8毛钱