Qwen3系列模型
搜索文档
破解大模型「无效并行推理」:Parallel-Probe问世,并行推理效率提升35.8%
机器之心· 2026-03-07 12:20
核心观点 - 研究团队提出了一种名为Parallel-Probe的Training-Free并行推理控制算法,旨在解决大模型在并行推理(Parallel Thinking)过程中存在的计算资源浪费问题 [2] - 该算法通过系统性分析发现,并行推理并非“算得越多越好”,全局共识常提前稳定,而少数长尾路径却持续占用大量资源,成为效率瓶颈 [2] - Parallel-Probe通过基于共识的早期停止和基于偏差的分支剪枝两大机制,在不牺牲核心准确率的前提下,显著提升了推理效率 [2][13] 技术原理与发现 - 研究通过引入2D Probing技术,系统性刻画了在线并行推理的全局动态性,揭示了三大底层特征 [8] - 特征一:非单调缩放,即准确率并非随算力投入单调增加,而是取决于“宽度”与“深度”的精细平衡 [12] - 特征二:路径长度不均,并行分支的生成长度差异极大,计算资源往往被少数“长尾”路径占据 [12] - 特征三:共识提早稳定,全局共识往往在所有分支结束前就已达成,平均共识达成率仅为0.31 [12] - 现有并行推理方法(如多数投票)的缺陷在于各推理分支彼此独立,即使大部分分支已达成共识,系统仍需等待所有冗余分支完成,导致效率低下 [5] 算法与性能 - Parallel-Probe是一种模型无关、即插即用的方法,可直接适配各种现成的开源或闭源大语言模型 [9][11] - 算法核心机制一:基于共识的早期停止,周期性提取各分支中间结果,一旦探测到全局多数答案在连续几个周期内保持稳定,便终止整组推理 [13] - 算法核心机制二:基于偏差的分支剪枝,实时监控每条路径,对显著偏离当前全局趋势的异常路径进行剔除,将资源集中在更有潜力的路径上 [13] - 实验表明,该算法能显著减少无效计算,将推理延迟降低35.8%,总token成本降低25.8% [2] - 在多个基准测试(AIME24, AIME25, HMMT25)和不同规模的基础模型(Qwen2-0.6B, 1.7B, 4B, 8B)上,Parallel-Probe在性能、成本效率和延迟效率之间建立了更优的平衡点,系统性地优于现有的ESC和SC等基准方法 [14] 基础设施与贡献 - 研究团队推出了名为SCOUT(顺序与并发离线利用测试床)的平台,实现了推理生成与控制策略的解耦,允许开发者在极低开销下模拟各种缩放策略,极大提升了测试效率 [15][16] - 相关代码、论文及Online Judge平台均已开源,可供行业研究使用 [6][16][18]
计算机行业AI2026算力系列(二):从云业务到千问APP,阿里算力需求保持旺盛态势
广发证券· 2026-01-30 15:10
行业投资评级 - 计算机行业评级为“买入” [3] 核心观点 - 在AI商业回报逐步显现的基础上,阿里巴巴或加大AI基础设施的投入,其算力需求保持旺盛态势 [1][7] - AI投资与云业务已开始形成协同效应,阿里云营收增长明显提速 [7][10] - 千问App有望成为阿里生态统一的超级Agent入口,其大规模推广有望进一步拉动AI算力需求,并形成新的商业化增长点 [7][16] - 千问系列大模型的持续迭代将保持训练端算力需求的旺盛状态 [7][21] 从云业务到千问APP,阿里算力需求保持旺盛态势 - **资本开支与投入计划**:以2025年11月截止的过去4个季度,阿里巴巴在AI+云基础设施的资本开支约1200亿元人民币 [7][10]。阿里正考虑将未来三年投入到AI基建与云计算上的3800亿元提升至4800亿元 [7][10] - **云业务增长与市场地位**:2025年第三季度,阿里云营收为398亿元,同比增长34.5%,主要由AI强劲需求驱动 [7][12]。AI相关产品已经连续9个季度实现三位数同比增长 [7][12]。根据Omdia报告,2025年上半年,阿里云在中国AI云市场份额位列第一,占比35.8% [7][12] - **千问App的生态整合与商业化潜力**:2026年1月15日,千问App宣布全面接入淘宝、支付宝、飞猪、高德等阿里生态业务,上线超过400项AI办事功能 [7][16]。其产品迭代节奏快,自2025年11月推出至全面接入生态仅花了2个月时间 [7][26]。报告判断,千问App作为超级Agent入口,其大规模推广或带来电商交易、金融服务、出行服务相关用户流量的快速增长,有望进一步拉动AI算力需求,并形成比广告或订阅模式更直接、更具长期价值的变现方式 [7][16] - **大模型持续迭代**:自2025年4月以来,Qwen3系列模型已迭代多个版本 [7][21]。2026年1月推出的Qwen3-Max-Thinking模型增强了自适应工具调用能力,性能比肩GPT-5.2-Thinking等模型 [7][21]。随着模型持续迭代,阿里巴巴对于训练端的算力需求将保持旺盛 [7][21] - **平头哥AI芯片的赋能作用**:平头哥自研的真武810E芯片可应用于AI训练、推理等场景,在当前英伟达H200在中国市场销售存在不确定性的情况下,有望填补阿里巴巴对于AI算力的需求 [24] 投资建议与关注公司 - **投资逻辑**:阿里巴巴对算力投入规模的上调,反映了其对于千问App等AI应用后续用户生态和商业拓展的信心 [7][26] - **建议关注的具体方向与公司**: - CDN相关业务有望受益于阿里云基础设施的拓展,建议关注**网宿科技** [26] - AI芯片和服务器等产品需求有望受拉动,建议关注**寒武纪、浪潮信息、紫光股份** [26] - 电商平台及相关商家IT服务有望受益于千问App的推广,建议关注**光云科技** [26] - 酒店预订相关IT服务有望受益于千问App的推广,建议关注**石基信息** [26] - 出行相关IT服务有望受益于千问App的推广,建议关注**千方科技** [26] - 千问系列大模型的商业拓展或激发同行加快大模型迭代节奏,建议关注火山引擎合作伙伴**汉得信息** [26]
财经观察:DeepSeek一周年,中美AI之路再对比
环球时报· 2026-01-15 06:51
中国人工智能行业发展态势 - 中国AI初创公司深度求索预计将于2月中旬推出下一代AI模型V4,其编码能力表现可能优于美国公司Anthropic的Claude和OpenAI的GPT系列 [1] - 2025年一年时间,中国缩小了与美国在人工智能领域的差距,中美大模型已跑出两条不同的主航道 [1][4] - 中国的开源人工智能模型占全球AI技术使用总量的近30%,中国的开源模式正在赢得世界各地开发者的信任 [3] 中美AI发展路径对比 - 美国走的是“前沿能力持续拉高+闭源模型+平台化产品”路线,将最强模型封装成ChatGPT等超级入口,目标是把智能变成可控、可收费、可治理的基础设施 [4] - 中国走的则是“开源权重+极致工程效率+快速产业扩散”路线,不追求长期垄断最强模型,而是把足够强的能力尽快做成可复制、可落地的工程资产 [4] - 若只看“最强模型的前沿能力”,美国仍领先数月到一年级别;若看“工程效率、成本和落地速度”,中国几乎没有时间差,局部甚至更快;若看“产品平台、生态与规则制定”,美国依然领先一到两年 [5] 中国AI公司的竞争力与进展 - 深度求索的R1大模型仅用两个月完成训练,成本仅为美国公司所花费金额的一小部分,但效果与OpenAI的ChatGPT和Meta的Llama大模型不相上下 [2] - 阿里巴巴早在2018年就启动了AI大模型研发,截至目前已开源近400个模型,全球衍生模型超过18万个,下载量突破7亿次 [3] - 更多的中国大模型公司已紧跟最新AI发展步伐,跻身全球大模型第一梯队 [2] AI技术应用与落地前景 - 2025年,AI改变最大的地方是写代码,未来信息接收、创造和处理会更多地被AI替代 [8] - 中国在“工程落地速度”和“供应链完整度”方面具有优势,在激光雷达、高能量密度电池和高性价比电机组件上几乎占据半壁江山,机器人迭代快且具备大规模量产的潜力和成本优势 [7] - 下一个“深度求索时刻”可能出现在人形机器人+大模型、工业/能源/供应链大模型、低成本推理与端侧模型突破等方向 [10] AI产业规模化与市场影响 - AI潮玩品牌珞博智能将2026年销售目标定为100万台AI玩具,认为大模型技术成熟、供应链成本可控、消费者认知提升三大条件已具备 [10] - “100万台”是AI玩具行业的里程碑,海量高质量的交互数据将极大加速模型“数据飞轮”的运转,形成良性循环 [11] - “100万台”意味着市场教育完成,证明AI玩具能够真正融入日常生活,成为提供情感价值的“生活必需品” [11] 对AGI(通用人工智能)发展的看法 - 特斯拉CEO马斯克认为AGI最快可能于2026年出现,2030年前AI能力将超越人类总和 [9] - 从技术角度看,AGI最先逼近的很可能还是美国头部实验室体系,其算力、工程与前沿探索优势明显 [9] - 中国更容易在真实社会中快速规模化部署AI,将其嵌入产业、政务和公共服务,让AI在现实系统里长时间运行并积累优势 [9]
基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨
机器之心· 2025-12-05 12:08
文章核心观点 - 普林斯顿大学等机构的研究者提出了一种名为LatentMAS的多智能体推理框架,其核心创新是将AI智能体之间的协作从传统的文本空间转移到了模型的潜在空间[5] - 该框架让智能体直接交换内部的隐藏层表示与KV缓存工作记忆,实现了近乎“心灵感应”式的协作,避免了传统文本交流的冗长、低效和信息丢失问题[5][7] - 实验结果表明,LatentMAS在多个基准任务上实现了更高的准确率、更低的token使用量以及显著提升的推理速度,展示了潜在空间协作的巨大优势[6] 方法介绍 - LatentMAS是一个端到端的潜在协作框架,所有智能体的推理与交流完全在潜在空间中进行,只有最终答案才会被解码为文本输出[14] - 框架建立在三个基本原则之上:推理表达能力(隐藏表示编码更丰富的连续思维)、通信保真度(实现跨智能体的无损信息传递)以及更低的协作复杂度[15][16] - 该方法使LLM智能体能够在潜在空间中生成具有超强表达能力的潜在思维,并以无损方式传递潜在工作记忆,同时保持显著更低的计算复杂度[16] 实验评估 - 在九个基准任务上的全面实验显示,LatentMAS相比单模型基线在顺序式与层级式MAS设置下准确率平均提升14.6%和13.3%[20] - 相比文本式MAS,LatentMAS在顺序式与层级式设置下分别实现4倍与4.3倍的推理加速,并减少70.8%与83.7%的token使用量[21][22] - 在具体任务如GSM8K上,使用Qwen3-14B模型的LatentMAS准确率达到95.2%,相比单模型基线提升11.5%,同时token使用量减少80.6%[23] 高效率潜在协作 - LatentMAS可实现2.6倍至7倍的额外加速,源于潜在推理只需较少的潜在步骤,而文本推理则需要大量逐token解码步骤[25] - 在AIME 24/25等高强度推理任务中,LatentMAS在不到50个潜在步骤的情况下就能达到甚至超过需要超过2万个输出token的文本MAS表现[25] - 相比TextMAS,LatentMAS可减少59.4%至87.9%的token使用量,相比单模型推理也能减少15.0%至60.3%的token使用量[28] 深入分析 - 潜在思维与对应文本响应的嵌入分布区域几乎重叠,表明潜在思维能有效捕捉文本语义,同时具有更高的多样性和表达能力[30][31] - 随着潜在步骤数量的增加,下游性能普遍提升,说明额外的潜在思维提高了AI协作的表达能力[32] - 该方法无需额外训练,可兼容任意HuggingFace模型,并可选择性地支持vLLM后端,通用性强[8]
刚刚,Thinking Machines Lab博客提出在策略蒸馏,Qwen被cue 38次
36氪· 2025-10-28 10:00
文章核心观点 - Thinking Machines Lab (TML) 发布了一项名为“在策略蒸馏”的新训练方法,该方法将强化学习的纠错相关性与监督微调的奖励密度相结合 [1] - 该方法能以极低的成本超越其他训练方法,尤其适用于小模型,可使其具备强大的领域性能和持续学习能力 [1][17] - TML明确表示其新成果受到Qwen团队研究的启发,并在实验过程中大量使用了Qwen3系列模型 [3] 技术方法概述 - 在策略蒸馏的核心思想是从学生模型中采样轨迹,并使用高性能教师模型为每个轨迹的每一个token评分,从而结合在策略训练的优势和密集奖励信号 [15] - 该方法使用反向KL散度作为损失函数,促使学生在自身所处的每种状态下近似教师行为,且该奖励是“不可破解的”和“寻找众数”的 [19][20] - 实现过程包括初始化教师客户端、从学生模型采样轨迹、计算教师模型对采样token的对数概率以计算反向KL奖励,并利用强化学习的训练框架进行模型更新 [25][26][27][28] 性能与成本优势 - 在数学推理任务上,从40万SFT检查点开始,在策略蒸馏仅用约150步就在AIME'24基准上达到70%的分数,而离策略蒸馏估计需要200万个提示才能达到相似性能 [32][35] - 与强化学习相比,在策略蒸馏以十分之一的成本在AIME'24上取得了74.4%的更高分数,而强化学习需要17,920个GPU小时才达到67.6% [34] - 在计算效率上,当SFT数据集是现成或可摊销时,在策略蒸馏比基线成本降低9倍;若无现成数据集,总成本可降低约30倍 [40][41] - 从相同初始化开始,在策略蒸馏学习强化学习训练策略所需的梯度步数少7-10倍,对应50-100倍的计算效率提升 [58] 应用案例:数学推理 - 使用Qwen3-8B-Base作为学生模型,Qwen3-32B作为教师模型进行在策略蒸馏,在AIME'24数学基准上取得显著提升 [30][34][35] - 仅使用单个提示连续训练20步,在策略蒸馏也能达到与教师模型相当的性能,展示了极高的数据重用效率 [61] 应用案例:个性化与持续学习 - 在公司内部助手训练中,中训练新知识会降低模型原有的指令遵循能力,混入30%聊天数据仍无法维持IF-eval上的原始性能 [45][47] - 在策略蒸馏能有效恢复指令遵循能力,在对内部文档微调后,几乎完全恢复IF-eval性能至83%,且未损失知识,内部QA评估分数从36%提升至41% [53][54] - 该方法适用于持续学习,可交替进行“在新数据上微调”和“蒸馏以恢复行为”的阶段,使模型能持续学习并保持知识最新状态 [53][66] 方法比较与行业意义 - 后训练方法主要包括离策略蒸馏、强化学习以及在策略蒸馏,三者在采样方式和奖励信号密度上存在差异 [18] - 在策略蒸馏结合了在策略训练的可靠性能和密集奖励信号的成本效益,是达到前沿模型能力的关键部分 [70] - 该方法为从业者提供了一种廉价而强大的工具,用于训练具备专家级性能的小型模型,并支持持续学习和个性化 [17][70]
刚刚,Thinking Machines Lab博客提出在策略蒸馏,Qwen被cue 38次
机器之心· 2025-10-28 08:41
文章核心观点 - Thinking Machines Lab发布了一项名为“在策略蒸馏”的新训练方法,该方法将强化学习的纠错相关性与监督微调的奖励密度相结合 [1] - 在策略蒸馏能以极低成本超越其他方法,尤其适用于小模型,可使其具备强大的领域性能和持续学习能力 [1] - 该方法在数学推理和内部聊天助手等任务上表现出色,其成本仅为强化学习的一小部分,例如在AIME'24基准测试上达到70%分数所需成本比离策略蒸馏低9-30倍 [27][47][52][53] 训练方法分类与比较 - 后训练学生模型的方法主要分为在策略训练和离策略训练两类 [7] - 在策略训练从学生模型自身采样轨迹并分配奖励,优势在于学生能更直接学会避免错误 [8][12] - 离策略训练依赖于外部来源的目标输出进行模仿学习,常用监督微调完成,但可能导致复合错误 [9][16][17] - 在策略蒸馏结合两者优点,从学生采样轨迹并使用高性能教师模型为每个token评分,提供密集奖励信号 [23][24][28] 在策略蒸馏的技术实现 - 核心使用逐token的反向KL散度作为损失函数,促使学生在每种状态下近似教师行为 [31] - 该方法计算效率高,仅需小型模型进行一次前向传播,且可使用短轨迹训练 [32] - 伪代码实现包括初始化教师客户端、采样轨迹、计算奖励和使用强化学习进行训练四个步骤 [38][43] 数学推理能力训练成果 - 使用Qwen3-32B作为教师模型对Qwen3-8B-Base进行在策略蒸馏,在AIME'24基准测试上达到70%分数 [41][48] - 相比强化学习需要17,920 GPU小时达到67.6%分数,在策略蒸馏仅需1,800 GPU小时即达到74.4%分数 [46][47] - 在策略蒸馏达到相同性能所需的梯度步数比强化学习少7-10倍,对应50-100倍计算效率提升 [76] 个性化与持续学习应用 - 在策略蒸馏可有效用于模型个性化训练,如在公司内部文档上微调后恢复指令遵循能力 [55][69] - 实验显示,在对内部文档进行70-30混合数据微调后,在策略蒸馏几乎完全恢复了IF-eval 85%的原始性能 [69][70] - 该方法支持持续学习,可交替进行“新数据微调”和“蒸馏恢复行为”阶段,使模型保持知识最新状态 [69][85] 数据效率与搜索机制 - 在策略蒸馏可重复使用单个提示进行训练,学习教师完整分布而非记忆单个答案,提高数据效率 [79][80] - 与强化学习在语义策略空间进行搜索不同,在策略蒸馏是学习已发现策略的捷径,无需对中间策略建模 [82][84] - 在策略蒸馏每个回合教授O(N)比特信息(N为token数量),而强化学习仅教授O(1)比特,信息密度显著更高 [71]
英伟达千亿豪赌OpenAI;混沌HDDI商业智能体亮相云栖;红杉揭秘95%企业AI应用失败真相 | 混沌AI一周焦点
混沌学园· 2025-09-28 19:58
混沌HDDI产品发布 - 混沌在2025云栖大会发布商业创新智能体HDDI,旨在用AI重构企业战略决策[2] - HDDI深度融合混沌独有的创新理论框架与十年案例库,工作方式类似真正的咨询顾问[3] - 产品通过多轮引导式对话帮助决策者定义核心问题,并在十几分钟内生成包含根本性剖析、跨行业案例佐证及实施路径的深度分析报告[6] - 商业模式从一次性项目制转向可随时响应、持续陪伴的订阅制伙伴关系[3] AI行业生产力与就业影响 - 红杉资本援引研究指出,仅5%企业能从生成式AI获得显著商业价值,95%企业收效甚微,形成“GenAI鸿沟”[8] - AI已开始大规模替代22-25岁初级岗位,这些岗位依赖的“书本知识”易被自动化[8] - 员工自费购买个人AI服务完成工作的“影子AI”经济,揭示市场存在巨大未满足需求[13] - 年轻一代程序员将“凭感觉编码”视为默认方式,预示人机协作范式转变[14] 巨头战略与技术进展 - OpenAI首席科学家透露公司终极目标是构建能自主发现新思想的“自动化研究员”,GPT-5是推向主流的关键一步[9] - OpenAI未来评估基准将转向衡量模型能否做出新发现并在具备经济相关性的领域取得实际进展[9] - 英伟达将投资高达1000亿美元,为OpenAI部署至少10吉瓦的AI数据中心,系统将包含数百万块GPU[17][23] - 联发科发布天玑9500芯片,其NPU峰值性能提升111%,功耗降低56%,端侧AI能力实现重大突破[19][24] 模型与产品创新 - 阿里云栖大会发布Qwen3-Max模型,总参数超过1万亿,支持100万Token上下文,并在编程和Agent能力上表现突出[12][15] - Qwen3-VL原生支持256K tokens上下文,可扩展至100万,相当于支持长达2小时的视频处理[16] - AI硬件公司Plaud年收入有望突破2亿美元,全球销量超百万,其成功归因于“软硬结合”的产品哲学[10] - Plaud产品定位从录音笔记工具升级为“工作伙伴”,未来将提供超越事务性助理的战略决策支持[10] 行业生态与竞争格局 - 巨头如华为、微信和飞书正将AI能力深度整合进核心产品线,以此构建新增长引擎并探索“第二曲线”[20] - 创业者可利用巨头开放的API和接口,深入挖掘特定行业痛点,提供专业化、定制化的AI解决方案[20] - 创业公司应进行错位竞争,利用巨头开放的基础模型,聚焦被忽视的边缘市场和需要深度行业知识的垂直难题[22] - 北京海淀区AI创造者嘉年华以“社区化”和“跨界融合”为核心,展示了从兴趣启蒙到产业落地的全周期创新生态[11]
数字经济双周报(202507第2期)-20250801
银河证券· 2025-08-01 18:37
美国AI战略 - 美国发布《美国AI行动计划》,包含90多项行政命令,旨在确立全球AI领导地位[5][6] - 计划三大支柱:加速创新(监管松绑)、构建基础设施(能源与基建)、主导全球秩序(技术输出与标准制定)[6][7] - 英伟达重启H20芯片对华销售,该芯片占中国AI芯片市场66%份额,腾讯/字节/阿里为前三大买家(占比29%/23%/13%)[9][11][25] 中国AI发展 - 中国发布《人工智能全球治理行动计划》,提出13项任务和6大治理原则,倡议成立世界人工智能合作组织[19] - 地方数据政策密集出台:江西目标2027年数据要素市场年均增长20%,北京经开区目标3年内数据产业规模突破500亿元[21] - 国产AI模型Qwen3系列性能超越Claude4等闭源模型,登顶全球最强开源推理模型[43] 全球AI基建竞赛 - Meta宣布数千亿美元AI数据中心投资计划[30] - 美国"宾州AI与能源计划"总投资超900亿美元,黑石/谷歌等企业参与[31] - 谷歌拟投资250亿美元在美国13州建设数据中心与AI基础设施[33] 国际监管动态 - 欧盟发布通用AI模型提供商指南,明确系统性风险模型评估义务[36] - 英国发布《批发金融市场数字化战略》,支持DLT/AI/量子技术重塑金融架构[37] - 英国投资20亿英镑扩大AI算力资源,目标2030年前提升20倍[38] 技术突破 - OpenAI和Google DeepMind在2025IMO数学竞赛中获金牌成绩,解决5/6难题[45] - 中国推出全球首个55自由度VLA大模型驱动的人形机器人星动L7[44]
数字经济双周报(202507第2期)-20250731
银河证券· 2025-07-31 18:00
全球AI政策与市场变化 - 美国发布AI行动计划,含90多项行政命令,旨在确立全球AI领导地位,输出技术、简化审批、促进创新等[5][6] - 中国发布《人工智能全球治理行动计划》,提出13项重点任务,倡议成立世界人工智能合作组织[19] - 欧盟发布通用人工智能模型提供商指南,英国发布金融数字化战略、AI算力投资计划并与OpenAI合作[36][37][38][39] 企业动态与投资计划 - 英伟达重启H20芯片对华销售,Meta宣布数千亿美元AI基础设施计划[25][30] - 谷歌拟投资250亿美元建设数据中心与AI基础设施,NSF联合Voltage Park启动人工智能试点项目[33][35] 加密市场监管进展 - 美国三项加密资产法案取得进展,标志加密资产监管进入新阶段,但实施仍需时日[27][28][29] 技术前沿突破 - 国产AI推理模型迭代,人形机器人商业化进程加快,AI解决最难数学题获金牌[43][44][45] 其他国家动态 - 加拿大比特币认可度提升,新加坡通过产学研合作推动量子应用[41][42] 中国地方政策与产业发展 - 江西等地出台数据相关政策,我国数据市场迈向新阶段,AI融合科研与产业[21][22][23] 智库观点 - 文章认为参议院删除“人工智能州级监管暂停令”对美国AI领导地位是重大打击,并澄清批评意见[46][47] 风险提示 - 面临技术封锁深化、产业生态割裂、AI基础设施代差、国际AI规则重塑等风险[9][13][16] 评级标准 - 行业和公司评级以报告发布日后6到12个月相对市场表现为标准,有推荐、中性、回避等评级[56] 报告声明 - 报告版权归银河证券所有,使用需授权,提醒公众慎重使用未经授权报告[54][55]
整个HuggingFace榜,已经被中国AI模型一统江湖了。
数字生命卡兹克· 2025-07-31 09:06
国产开源模型发展现状 - 国内AI公司近期密集开源大模型 MiniMax、Kimi、Qwen、混元、智谱、昆仑万维等均在近期推出开源模型 [1] - Hugging Face榜单前10名均为中国开源模型 智谱GLM-4 5登顶 Qwen占据5席 混元3D世界模型排名第3 [8][9] - 海外模型呈现涨价闭源趋势 与国内开源形成鲜明对比 [3][54] 主要公司开源动态 腾讯 - 6月27日开源混元A13B模型 总参数80B 激活参数13B [17][18] - 7月27日开源3D世界模型HunyuanWorld-1 业界首个开源可交互世界生成模型 当前排名第3 [43] 阿里 - 7月1日开源ThinkSound音频模型 实现视频画面专属音效匹配 [21] - 7月连续开源Qwen3系列模型 包括235B参数的A22B-Instruct(排名第10) 480B参数的Coder(排名第2)等 [37][38][39] - 7月28日开源Wan2 2视频生成模型 采用MoE架构 包含文生视频/图生视频等版本 排名第9 [45] 智谱AI - 7月2日开源GLM-4 1V-Thinking视觉理解模型 9B参数规模 [23] - 7月28日开源GLM-4 5系列 包括355B参数的A32B和106B参数的Air版本 登顶HF热榜 [47] 昆仑万维 - 7月4日开源Skywork-Reward-V2系列奖励模型 参数规模从6亿到80亿不等 [25][26] - 7月9日开源Skywork-R1V3多模态理解模型 基于InternVL-38B优化 [33][34] - 7月30日开源Skywork-UniPic-1 5B多模态统一模型 实现图像理解/生成/编辑 [52] 其他公司 - 百度6月30日开源ERNIE4 5 包含纯LLM和多模态版本 [20] - Kimi7月11日开源K2模型 20分钟下载量达12 2k 提升国内模型Coding能力信心 [36] - 上海AI实验室7月26日开源Intern-S1多模态模型 241B参数规模 [41] 行业趋势 - 国内开源模型呈现技术多元化 覆盖NLP 多模态 音频 视频 3D生成等领域 [21][43][45] - 参数规模覆盖全面 从1 5B到480B均有涉及 满足不同场景需求 [26][38][47] - 两年前中文开源模型仅有GLM独苗 当前已实现全球领先地位 [53][56]