Workflow
刚刚,Qwen3 终于发布!混合推理模式、支持MCP,成本仅DeepSeek R1三分之一,网友喊话小扎:工程师要赶紧加班了
AI前线·2025-04-29 07:57

核心观点 - 阿里巴巴发布并开源新一代通义千问模型Qwen3,采用混合专家(MoE)架构,总参数量235B,激活仅需22B,成本大幅下降,性能全面超越全球顶尖模型[2][3] - Qwen3是国内首个"混合推理模型",集成"快思考"与"慢思考",可根据需求灵活调整算力消耗[4] - Qwen3在推理、指令遵循、工具调用、多语言能力等方面大幅增强,创下国产及全球开源模型性能新高[5] - Qwen3部署成本大幅下降,仅需4张H20即可部署满血版,显存占用仅为性能相近模型的三分之一[8] - Qwen3提供丰富的模型版本,包含2款MoE模型和6款稠密模型,均斩获同尺寸开源模型最佳性能[9] - Qwen3采用Apache2.0协议开源,支持119多种语言,全球开发者可免费下载商用[10] 模型架构与性能 - Qwen3采用混合专家(MoE)架构,总参数量235B,激活仅需22B,参数量仅为DeepSeek-R1的1/3[3] - Qwen3-235B-A22B在ArenaHard测评中获95.6分,超越OpenAI-o1及DeepSeek-R1[5] - Qwen3在AIME25测评中斩获81.5分,刷新开源纪录;LiveCodeBench评测突破70分,表现超过Grok3[5] - Qwen3-235B-A22B在CodeForces Elo Rating中获2056分,超越OpenAI-o1的1891分[6] - Qwen3-30B-A3B MoE模型在ArenaHard测评中获91.0分,超越Qwen2.5-72B-Instruct的81.2分[7] 部署与成本 - Qwen3仅需4张H20即可部署满血版,显存占用仅为性能相近模型的三分之一[8] - 官方建议使用SGLang和vLLM等框架进行部署,本地使用推荐Ollama、LMStudio等工具[8] - Qwen3-30B参数MoE模型实现10倍以上性能杠杆提升,仅激活3B就能媲美上代Qwen2.5-32B模型性能[9] - Qwen3稠密模型一半参数量可实现同样高性能,如32B版本可跨级超越Qwen2.5-72B性能[9] 训练与数据 - Qwen3使用约36万亿个token进行预训练,是Qwen2.5的两倍,涵盖119种语言和方言[20] - 预训练分为三个阶段:基础语言能力训练、知识密集型数据训练和长上下文能力训练[22] - Qwen3从网页和PDF等文档中提取数据,并利用Qwen2.5系列模型提升数据质量和生成合成数据[21] - Qwen3稠密基础模型整体性能达到参数量更大的Qwen2.5基础模型水平,在STEM等领域甚至超越[25] 功能特点 - Qwen3支持混合思维模式,用户可按需设置"思考预算",灵活满足不同场景需求[12] - 思考模式适用于复杂问题,非思考模式适合简单问题[13] - Qwen3增强对Agent支持,优化编码和Agent能力,增强对MCP的支持[15] - 在BFCL评测中Qwen3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型[16] - Qwen3原生支持MCP协议,具备强大的工具调用能力,结合Qwen-Agent框架降低编码复杂性[16] 社区与生态 - Qwen3发布后,苹果机器学习研究员Awni Hannun测试显示其在M2 Ultra上运行非常快[31] - 网友评价Qwen3-235B-A22B感觉像是原始o1博客文章中的推理轨迹和R1 zero的结合[32] - 阿里通义已开源200余个模型,全球下载量超3亿次,Qwen衍生模型数超10万个,已超越美国Llama[35]