模型性能与架构 - 千问3是国内首个"混合推理模型",集成"快思考"与"慢思考"功能,参数量仅为DeepSeek-R1的1/3 [1] - 千问3采用混合专家(MoE)架构,总参数量235B,激活仅需22B,预训练数据量达36T [2] - 在ChatBot Arena等榜单中性能全面超越R1、OpenAI-o1等全球顶尖模型,登顶全球最强开源模型 [1] - 具体性能表现:ArenaHard 95.6、AIME'24 85.7、CodeForces Elo Rating 2056等指标领先竞品 [2] - 30B参数MoE模型实现10倍以上性能杠杆提升,仅激活3B就能实现上代Qwen2.5-32B模型性能 [3] 成本与部署优势 - 部署成本大幅下降,仅需4张H20即可部署千问3满血版,显存占用仅为DeepSeek-R1的三分之一 [1][3] - 所有千问3模型都是混合推理模型,API可按需设置"思考预算"灵活满足不同场景需求 [3] - 通过优化架构实现稳定且高效的"思考预算"控制能力,对简单需求可"秒回"答案 [2] 产品发布与开源 - 公司开源了2款30B、235B的MoE模型,以及6款密集模型(0.6B至32B) [3] - 用户可在魔搭社区、HuggingFace等平台下载商用,或通过阿里云百炼调用API服务 [4] - 个人用户可通过通义APP体验,夸克即将全线接入千问3 [4] 技术路线与发展规划 - 未来将通过优化架构和训练方法扩展数据规模、增加模型大小、延长上下文长度 [4] - 计划拓宽模态范围并利用环境反馈推进强化学习以进行长周期推理 [4] - 团队表示Qwen3是通往AGI和ASI旅程中的重要里程碑,正过渡到以训练Agent为中心的时代 [4]
阿里发布并开源千问3,称成本仅需DeepSeek-R1三分之一