大模型预训练原理Scaling Law
搜索文档
阿里发布Qwen3-Max,性能超GPT5跻身全球前三
观察者网· 2025-09-24 13:37
Qwen3-Max-Instrurct测评分数 大模型预训练原理Scaling Law(规模化法则)认为,持续地增长数据和参数规模,是通向 AGI 的可能 路径之一。由于自然数据的数量有限,当前有部分学者认为预训练的Scaling Law即将逼近上限,而 Qwen3-Max的性能突破显示,继续增大数据、模型参数,依然能锻造出更强的模型,给予了大家更多 的信心。目前,通义千问系列模型已经实现从0.5B到超万亿的全尺寸覆盖,包含三百多个大模型,可满 足不同场景的需求。 9月24日, 2025云栖大会开幕,阿里通义旗舰模型Qwen3-Max重磅亮相,性能超过GPT5、Claude Opus 4等,跻身全球前三。Qwen3-Max包括指令(Instruct)和推理(Thinking)两大版本,其预览版已在 Chatbot Arena 排行榜上位列第三,正式版性能可望再度实现突破。 Qwen3-Max为通义千问家族中最大、最强的基础模型。该模型预训练数据量达36T tokens,总参数超过 万亿,拥有极强的Coding编程能力和Agent工具调用能力。在大模型用Coding解决真实世界问题的SWE- Bench Ver ...
阿里通义发布Qwen3-Max
证券时报网· 2025-09-24 11:57
模型发布与性能表现 - 阿里在2025云栖大会上发布通义旗舰模型Qwen3-Max,其性能超过GPT5和Claude Opus4,跻身全球前三 [1] - Qwen3-Max包含指令和推理两大版本,其预览版已在Chatbot Arena排行榜上位列第三 [1] - 该模型预训练数据量达36T tokens,总参数超过万亿,是通义千问家族中最大、最强的基础模型 [1] 核心能力测试结果 - 在SWE-Bench Verified测试中,Qwen3-Max指令版本获得69.6分,位列全球第一梯队,展现极强的编程能力 [1] - 在Tau2-Bench测试中,Qwen3-Max取得突破性的74.8分,超过Claude Opus4和DeepSeek-V3.1,显示卓越的Agent工具调用能力 [1] - 推理增强版本Qwen3-Max-Thinking-Heavy在AIME25和HMMT数学推理测试中均获满分100分,为国内首次 [2] 技术路径与行业意义 - Qwen3-Max的性能突破显示,通过持续增大数据和模型参数,依然能锻造出更强模型,验证了Scaling Law的持续有效性 [2] - 模型在解数学题时懂得调动工具写代码,并通过增加测试时计算资源提升表现,展示了技术方法的创新 [2] - 通义千问系列模型已实现从0.5B到超万亿参数的全尺寸覆盖,包含三百多个大模型,可满足不同场景需求 [2]