Workflow
阿里巴巴(BABA)
icon
搜索文档
最新!阿里开源新一代大模型
券商中国· 2026-02-16 19:08
模型性能与技术创新 - 公司于2月16日开源全新一代大模型千问Qwen3.5-Plus,实现了底层模型架构的革新[1] - Qwen3.5-Plus总参数达3970亿,激活参数为170亿,性能超过万亿参数的Qwen3-Max模型[2] - 新模型部署显存占用降低60%,最大推理吞吐量可提升至19倍[2] - 模型基于视觉和文本混合token进行预训练,并新增了中英文、多语言、STEM和推理等数据[2] - 千问3.5扩展支持201种语言,将词表大小从15万扩展到25万,可最高提升小语种60%的编码效率[2] 成本优势与市场应用 - Qwen3.5-Plus的API定价极具竞争力,每百万Token低至0.8元,仅为Gemini 3 Pro价格的1/18[2] - 千问App在春节期间通过其AI购物Agent,于6天内完成了1.2亿笔订单[2] - 模型能力的大幅增强,有望进一步拓展千问APP在工作和生活中协助用户处理事务的应用场景[2] - 千问APP及PC端已第一时间接入Qwen3.5-Plus模型[3] 开源生态与未来规划 - 自2023年开源以来,公司已累计开源超过400个千问模型[2] - 开发者可通过魔搭社区和HuggingFace平台下载新模型,或通过阿里云百炼获取API服务[3] - 公司计划继续开源不同尺寸和功能的千问3.5系列模型[3] - 性能更强的旗舰模型Qwen3.5-Max也将在不久后发布[3]
最强开源大模型除夕登场!397B参数千问3.5超越Gemini 3,百万Tokens低至8毛
量子位· 2026-02-16 19:00
模型发布与定位 - 阿里于除夕发布全新一代开源大模型Qwen3.5-Plus,登顶最强开源模型宝座[1] - 该模型是阿里春节档发布的第一弹,后续几天将继续开源多款适用于不同场景的Qwen3.5模型,旗舰版Qwen3.5-Max将在年后压轴登场[11][12][13] 核心性能表现 - 模型总参数为3970亿,单次推理仅激活170亿参数,激活比例不到5%,性能却超越万亿参数的Qwen3-Max[4][55] - 在MMLU-Pro测试中得分87.8分,超过GPT-5.2[17] - 在GPQA博士级科学推理评测基准中斩获88.4分,超越Claude 4.5[18] - 在IFBench榜单中以76.5分刷新指令遵循最高纪录[20] - 在Agent能力评测(BFCL-V4、Browsecomp)中评分全面超越Gemini-3-Pro[20] 多模态能力 - 模型从预训练第一天起就基于视觉和文本的混合Token数据,拥有原生多模态理解能力[22][23] - 在多模态主流评测(MathVison、RealWorldQA、CC_OCR、RefCOCO-avg、MLVU)中几乎横扫所有指标,刷新开源模型天花板[23] - 在学科解题、任务规划与物理空间推理等高难度场景上,表现出超越专项模型Qwen3-VL的综合素养[24] - 支持长达2小时的超长视频直接输入,配合1M Tokens原生上下文,能进行精准分析与摘要[26] - 实现视觉理解与代码逻辑的原生融合,可将手绘界面草图重构为高质量前端代码,并通过单张截图定位修复UI缺陷[28] 技术架构创新 - 对Transformer架构进行深度重构,引入四项关键技术以平衡性能与效率[48] - 引入混合注意力机制,根据信息重要程度动态分配计算资源,提升长上下文处理效率[53] - 采用极致稀疏的MoE架构,总参数3970亿,单次推理激活仅170亿,激活比例不到5%[55] - 采用原生多Token预测机制,使推理速度接近翻倍[56] - 引入NeurIPS 2025最佳论文的注意力门控机制等优化,解决稀疏架构训练稳定性问题[57][59] 效率与成本优势 - 新架构使训练成本降幅高达90%[60] - 与Qwen3-Max相比,Qwen3.5-Plus部署显存占用降低60%,最大推理吞吐量可提升至19倍[5][60] - 阿里云百炼为Qwen3.5 API提供极具竞争力的定价:百万Tokens输入低至0.8元,相当于同级别模型Gemini-3-pro价格的1/18[9] - 原生多模态训练方案使整体训练吞吐量与纯文本基座模型几乎无差别,激活内存减少约一半,训练速度额外提升10%[65] - 大规模强化学习框架将智能体训练效率提升了3到5倍[66] 语言支持与可及性 - Qwen3.5首次实现201种语言全覆盖,词表规模从15万大幅扩充至25万,小语种编码效率最高提升60%[9] - 普通用户可登录千问APP或PC端免费体验Qwen3.5模型,开发者可前往魔搭社区或HuggingFace下载部署[9] 行业影响与开源生态 - 自2023年开源以来,阿里已累计开源400多个模型,覆盖全尺寸和全模态领域[71] - 千问模型全球下载量突破10亿次,单月下载量超过第2名到第8名的总和,开发者基于千问开发的衍生模型已超过20万个[72] - 千问已成为全球最大AI大模型族群,其开源开放、低成本和广泛语言支持的策略旨在让更多人用上顶尖模型[73]
阿里除夕开源“王炸”千问 3.5-Plus ,性能媲美Gemini 3 Pro、Claude 4.5 Opus,百万 Token 8毛钱
AI前线· 2026-02-16 18:45
阿里巴巴发布全新一代开源大模型Qwen 3.5-Plus - 阿里巴巴于除夕当天正式开源全新一代大模型Qwen 3.5-Plus [2] - 模型性能对标谷歌Gemini 3 Pro,并在多个关键基准中实现超越 [3] - API定价极具竞争力,低至每百万Token 0.8元人民币,仅为Gemini 3 Pro价格的1/18 [3] - 在当前大模型进入“性能趋同、成本博弈”的阶段,这一组合精准击中了行业核心痛点 [4] 模型架构与性能的重大革新 - 千问3.5并非参数规模的线性升级,而是一次底层模型架构的全面革新 [6] - 模型采用混合专家架构,总参数规模为3970亿,但单次激活参数仅170亿 [7] - 基于视觉和文本混合token进行预训练,大幅新增中英文、多语言、STEM和推理数据 [7] - 以不到40%的参数量获得了超万亿参数的Qwen3-Max基座模型的顶尖性能 [7] - 综合性能超过万亿参数规模的Qwen3-Max,同时显存占用降低约60%,推理效率显著提升,最大推理吞吐量可提升至19倍 [8] 在多项关键基准测试中表现卓越 - 在MMLU-Pro知识推理基准中获得87.8分,超越GPT-5.2 [12] - 在GPQA博士级难题基准中获得88.4分,高于Claude 4.5 [12] - 在IFBench指令遵循基准中获得76.5分,刷新当前模型纪录 [12] - 在通用Agent评测和搜索Agent评测中,整体表现均超过Gemini 3 Pro与GPT-5.2 [12] 原生多模态能力实现飞跃 - 在多模态推理、通用视觉问答、文本识别、文件理解、空间智能、视频理解等众多权威评测中均斩获最佳性能 [13] - 相比千问专项视觉模型Qwen3-VL,在学科解题、任务规划与物理空间推理等任务上表现更好 [13] - 支持长达2小时(对应1M token上下文)的视频直接输入,适用于长视频内容分析与摘要生成 [13] - 实现视觉理解与代码能力的原生融合,可将手绘界面草图直接转为可用的前端代码,一张截图就能定位并修复UI问题 [13] 核心技术突破与训练优化 - 性能跃升源于对Transformer经典架构的重大创新,融入了自研的、曾获NeurIPS 2025最佳论文的门控技术 [17] - 结合线性注意力机制与稀疏混合专家架构,实现了397B总参数激活仅17B的极致效率 [17] - 在32K上下文场景中,推理吞吐量可提升8.6倍;在256K超长上下文情况下,推理吞吐量最大提升至19倍 [17] - 采用结合FP8与FP32的混合精度策略,使激活内存占用减少约50%,同时训练速度提升约10% [21] - 构建了可扩展的异步强化学习框架,在端到端训练过程中可实现约3至5倍的加速,并支持插件式智能体扩展至百万级规模 [22] 开源生态与开发者社区影响 - 自2023年启动开源以来,公司已累计开源400余个千问模型 [22] - 千问模型的全球累计下载量已超过10亿次,单月下载量超过DeepSeek、Meta、OpenAI、智谱、Kimi、MiniMax等多个模型的合计水平 [22] - 开发者基于千问模型构建的衍生模型数量已超过20万 [22] - 语言支持范围已扩展至201种语言,词表规模由15万增加至25万,在部分小语种场景下编码效率最高可提升约60% [22] - 千问APP、PC端已第一时间接入Qwen 3.5-Plus模型,开发者可通过魔搭社区、HuggingFace下载或通过阿里云百炼获取API服务 [23] 海外技术社区的积极反响 - 海外社区注意到模型在UI设计能力上的出色表现,认为其对低代码开发、应用原型设计等场景具有直接价值 [26] - 模型扩展支持201种语言获得好评,超大规模语言覆盖正从“参数指标”转变为真实可感知的使用体验 [26] - 有评论认为,此次发布标志着行业竞争正转向“智能体人工智能”,模型不仅会说话,还会在真实应用中采取行动,执行任务 [28] - 社区将Qwen 3.5 Plus视为不仅是性能升级,更是迈向“可执行智能体”的重要一步 [29]
阿里发布千问3.5
财联社· 2026-02-16 18:43
公司产品发布动态 - 公司在chat.qwen.ai页面上线了Qwen3.5-Plus和Qwen3.5-397B-A17B两款新模型 [1] - Qwen3.5-Plus定位为Qwen3.5系列最新大语言模型 [1] - Qwen3.5-397B-A17B定位为Qwen3.5开源系列旗舰大语言模型,两款模型均支持文本和多模态任务 [1]
阿里除夕发布千问3.5,性能媲美Gemini 3,价更低
南方都市报· 2026-02-16 18:16
阿里千问Qwen3.5模型发布 - 阿里巴巴于2月16日除夕开源全新一代大模型千问Qwen3.5-Plus,性能媲美Gemini 3 Pro,登顶全球最强开源模型[1] - Qwen3.5-Plus版本总参数为3970亿,激活参数仅170亿,性能超过万亿参数的Qwen3-Max模型,实现了“以小胜大”[1] - 该模型实现了从纯文本模型到原生多模态模型的代际跃迁,基于视觉和文本混合token进行预训练[1] 模型性能与效率突破 - 部署显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升至19倍[1][3] - 在常用的32K上下文场景中,推理吞吐量可提升8.6倍;在256K超长上下文情况下,最大提升至19倍[3] - API价格极具竞争力,每百万token低至0.8元,仅为Gemini 3 Pro的1/18[1] 技术架构与训练创新 - 模型性能跃升源于对Transformer经典架构的重大创新突破,融入了获2025 NeurIPS最佳论文的自研门控技术[3] - 结合线性注意力机制与稀疏混合专家模型架构,实现了3970亿总参数仅激活170亿的极致效率[3] - 原生多模态训练在阿里云AI基础设施上完成,混合数据训练吞吐量几近100%持平纯文本基座模型训练,大幅降低训练门槛[4] - 通过FP8、FP32精度应用策略,在训练扩展到数十万亿token时,激活内存减少约50%,训练还能提速10%[4] 多模态与视觉能力 - 千问3.5在多模态推理、通用视觉问答、文本识别、文件理解、空间智能、视频理解等众多权威评测中均斩获最佳性能[3] - 以不到40%的参数量获得了超万亿参数Qwen3-Max基座模型的顶尖性能[1] Agent智能体应用突破 - 基于顶级视觉能力,千问3.5实现了从Agent框架到Agent应用的新突破,可自主操作手机与电脑高效完成日常任务[4] - 在移动端支持更多主流APP与指令,在PC端可处理复杂的多步骤操作,如跨应用数据整理、自动化流程执行[4] - 团队构建了可扩展的Agent异步强化学习框架,端到端可加速3到5倍,并将插件式智能体支持扩展至百万级规模[4] 行业动态:AI大模型“春节档” - 国产大模型集体上新抢占“AI春节档”,行业竞争加剧[5] - 字节跳动于2月14日推出豆包大模型2.0系列,针对大规模生产环境进行优化[5] - MiniMax于2月13日上线并开源新一代文本模型MiniMax M2.5[5] - 字节跳动发布Seedance2.0,阿里发布Qwen-Image-2.0,DeepSeek更新至1.7.4版本,面壁智能开源MiniCPM-o 4.5模型[5]
阿里正式发布新一代基模千问3.5
新华网财经· 2026-02-16 18:06
阿里巴巴发布新一代大模型 - 公司于2月16日开源全新一代大模型千问Qwen3.5-Plus [2] - 千问3.5实现了底层模型架构的创新 [2] - 此次发布的Qwen3.5-Plus版本总参数为3970亿,激活参数仅170亿 [2] - 该模型性能超过万亿参数的Qwen3-Max模型 [2] - 模型部署显存占用降低60%,最大推理吞吐量可提升至19倍 [2] - Qwen3.5-Plus的API价格每百万Token低至0.8元 [2] 模型应用与获取渠道 - 千问APP、PC端已第一时间接入Qwen3.5-Plus模型 [2] - 开发者可在魔搭社区和HuggingFace下载新模型 [2] - 开发者可通过阿里云百炼直接获取API服务 [2] - 公司在chat.qwen.ai页面上线了Qwen3.5-Plus和Qwen3.5-397B-A17B两款新模型 [2] 新模型定位与能力 - Qwen3.5-Plus定位为Qwen3.5系列最新大语言模型 [2][5] - Qwen3.5-397B-A17B定位为Qwen3.5开源系列旗舰大语言模型 [2][6] - 两款模型均支持文本和多模态任务 [2][5][6]
阿里发布新一代基模千问3.5
新浪财经· 2026-02-16 17:53
公司发布新一代大模型 - 阿里巴巴于2月16日开源全新一代大模型千问Qwen3.5-Plus [1] - Qwen3.5-Plus版本总参数量为3970亿,激活参数量为170亿,性能超过其万亿参数的Qwen3-Max模型 [1] - 该模型部署显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升至19倍 [1] 模型定价与市场竞争力 - Qwen3.5-Plus的API价格低至每百万Token 0.8元 [1] - 其API价格仅为谷歌Gemini 3 pro模型的1/18 [1] 产品接入与开发者生态 - 千问APP和PC端已第一时间接入Qwen3.5-Plus模型 [1] - 开发者可通过魔搭社区和HuggingFace平台下载新模型 [1] - 开发者也可通过阿里云百炼平台直接获取该模型的API服务 [1]
Qwen3.5-Plus登顶全球最强开源模型
新浪财经· 2026-02-16 17:53
公司技术发布 - 阿里巴巴旗下阿里云开源全新一代大模型千问Qwen3.5-Plus,该模型登顶全球最强开源模型 [1] - 千问3.5实现了从纯文本模型到原生多模态模型的代际跃迁 [1] - 千问3.5基于视觉和文本混合token进行预训练,而千问3预训练仅在纯文本Tokens上进行 [1] 模型性能与优势 - 千问3.5以不到40%的参数量,获得了超万亿参数的Qwen3-Max基座模型的顶尖性能 [1] - 模型在推理、编程、Agent智能体等全方位基准评估中均表现优异 [1] - 模型通过大幅新增中英文、多语言、STEM和推理等数据,增强了世界知识和推理逻辑 [1]
Qwen3.5-Plus的API价格每百万Token为0.8元
金融界· 2026-02-16 17:48
公司动态:产品发布与技术升级 - 阿里巴巴于除夕当天开源发布大语言模型新版本千问Qwen3.5-Plus [1] - 新版本总参数规模达3970亿,激活参数为170亿 [1] - 模型性能超越前代旗舰产品Qwen3-Max [1] - 模型在显存占用方面实现显著优化,下降幅度达60% [1] - 模型推理吞吐量获得大幅提升,提升倍数高达19倍 [1] 商业模式与市场策略 - 公司为Qwen3.5-Plus模型设定了API调用价格,为每百万Token 0.8元 [1] - 公司已将新模型率先接入其自有应用生态,包括千问APP和PC端 [1]
阿里正式发布新一代大模型Qwen3.5
每日经济新闻· 2026-02-16 17:36
公司动态 - 公司于2月16日发布了名为Qwen3.5的新模型系列,并推出了该系列的首个模型Qwen3.5-397B-A17B的开放权重版本[1] - 该模型采用创新的混合架构,将线性注意力(Gated Delta Networks)与稀疏混合专家(MoE)技术相结合[1] - 模型总参数量达到3970亿,但每次前向传播仅激活170亿参数[1] 产品与技术 - 新模型通过创新的混合架构设计,旨在实现出色的推理效率[1] - 模型在保持强大能力的同时,优化了运行速度与成本[1] - 技术核心是结合了线性注意力与稀疏混合专家系统,以实现参数的高效利用[1]