文章核心观点 4月29日阿里巴巴发布新一代通义千问模型Qwen3,其效率高、成本低,性能卓越,开源后引发行业震动,适配众多厂商,在多方面表现出色,有望推动AI大模型在终端应用落地 [3] 千问3模型亮点 - 模型大小仅为相近性能模型的三分之一,性能超越R1和OpenAI - o1等全球顶尖模型,登顶全球最强开源模型 [3] - 国内首个“混合推理模型”,整合“快思考”与“慢思考”,简单问题低算力“秒回”,复杂问题多步骤思考节省算力 [3] - 在推理能力、指令遵循、工具调用及多语言能力等方面显著提升,创造国产及全球开源模型新性能高峰 [20] - 拥有独特混合推理、推理能力增强、人类偏好对齐卓越、智能体能力突出、多语言能力强大五大关键特性 [20] 千问3性能表现 - 在AIME25测评获81.5分刷新开源纪录,LiveCodeBench评测突破70分超Grok3,ArenaHard测评95.6分超越OpenAI - o1及DeepSeek - R1 [20] - 在多项评测中表现优异,如ArenaHard、AIME'24、AIME'25、LiveCodeBench v5等评测中成绩突出 [27] 混合推理模式 - 将顶尖推理和非推理模型集成,简单问题瞬间作答、算力消耗少,复杂问题开启思考模式 [21] - 技术门槛高,需多轮强化学习训练,热门模型中仅千问3、Claude3.7、Gemini 2.5 Flash可做到 [21] - 可通过API设置“思考预算”,在性能和成本间取得平衡 [22] 开源优势 - 显著降低部署成本,仅4张H20显卡即可部署旗舰版 [24] - 共开源8款模型,含2款MoE模型和6款稠密模型,各模型针对不同场景优化 [24] - 小尺寸模型对智能设备和场景部署友好,企业可免费下载和商用,加速AI大模型终端应用落地 [25] 行业适配情况 - 华为昇腾支持千问3全系列模型部署,开发者可实现0Day适配,此前也同步支持千问系列模型 [28][31] - NVIDIA、联发科、AMD等头部芯片厂商成功适配,联想“百应”接入千问3提升关键能力 [32] 智能体支持 - 在BFCL评测创下70.8新高,超越顶尖模型,降低Agent调用工具门槛 [33] - 原生支持MCP协议,结合Qwen - Agent框架降低编码复杂性,实现高效手机及电脑Agent操作 [33] 语言支持与开源成果 - 支持119种语言和方言,包括主要联合国语言、各国官方语言及多种地方性语言 [20][38] - 从2023年至今开源200多款模型,覆盖“全模态”“全尺寸”参数,多次获权威榜单冠军 [38] - 通义千问Qwen衍生模型超10万,全球下载量超3亿,在HuggingFace社区下载量占比超30% [39] - 在斯坦福HAI研究所报告中,2024年阿里6个模型入选重要大模型,AI贡献位列全球第三 [39]
阿里Qwen3大模型登顶开源冠军,中国AI应用即将迎来大爆发?