Workflow
MindSpeed
icon
搜索文档
不用GPU,大模型每2秒吃透一道高数大题!这就是华为的实力
雷峰网· 2025-05-30 17:48
华为昇腾与Pangu Ultra MoE技术创新 - 公司通过"昇腾+Pangu Ultra MoE"组合实现国产算力与模型全流程自主可控训练闭环,集群训练系统性能达行业领先水平[4] - 预训练阶段昇腾Atlas 800T A2万卡集群MFU提升至41%,后训练阶段单CloudMatrix 384超节点吞吐达35K Tokens/s[5] - 首次披露高效打通大稀疏比MoE强化学习后训练框架的关键技术,推动RL后训练进入超节点集群时代[6][7] MoE模型训练技术痛点与解决方案 - 当前MoE训练存在六大挑战:并行策略配置困难、All-to-All通信瓶颈、系统负载不均、算子调度开销大、训练流程管理复杂、大规模扩展受限[10][11] - 公司提出三阶段解决方案: - 提升训练集群利用率:通过智能并行优化、分层All-to-All通信去冗余、EDP全局负载均衡策略,将专家并行通信开销降至<2%[14][18][19] - 释放昇腾单节点算力:采用昇腾亲和算子加速、Host-Device协同下发优化、Selective R/S内存手术方案,实现MBS翻倍和70%激活值内存节省[22][25][27] - RL后训练创新:RL Fusion训推共卡技术支持多维并行策略动态切换,准异步机制StaleSync使训练吞吐提升50%[28][30] Pangu Ultra MoE模型性能突破 - 模型架构:7180亿参数,61层Transformer(3稠密层+58 MoE层),256路由专家+1共享专家,隐层维度7680[35] - 预训练性能:6K-10K卡昇腾800T A2集群实现8K序列长度下41% MFU,预计CloudMatrix 384超节点可支撑MFU>50%[35] - 后训练性能:CloudMatrix 384超节点实现35K Tokens/s吞吐,支持4K卡集群扩展,等效每2秒完成高数大题级推理任务[36] 技术架构创新细节 - 并行策略:采用16路流水线并行+8路张量并行+32路专家并行+2路虚拟流水线并行的混合架构[15] - 通信优化:分层专家并行通信结合虚拟流水线并行掩盖策略,实现计算通信深度融合[18] - 内存管理:构建自适应内存优化框架,支持模块级到张量级的细粒度内存调配[26] - 训推协同:支持分离部署/训推共卡/全共卡三种模式,秒级完成状态转换[28][33]
阿里Qwen3能否成为下一个DeepSeek?
36氪· 2025-05-07 19:38
模型发布与技术特点 - 阿里巴巴旗下通义千问团队发布并开源新一代模型Qwen3系列,包括2款参数规模为30B和235B的混合专家(MoE)模型,以及6款参数从0.6B到32B的密集模型 [1] - Qwen3采用混合专家(MoE)架构,旗舰模型Qwen3-235B-A22B总参数量235B但激活仅需22B,显著降低运行时算力需求 [3] - 预训练数据量跃升至36T,是Qwen2.5的三倍,多轮强化学习优化了模型在推理、指令遵循、工具调用及多语言能力等方面的表现 [5] - 在ArenaHard综合测试中得分95.6,AIME'24数学测试85.7,LiveCodeBench代码测试70.7,LiveBench决策测试77.1,显示多项能力提升 [5] 部署与成本优势 - 华为昇腾MindSpeed和MindIE实现Qwen3系列0Day适配,海光信息DCU完成全部8款模型无缝适配与调优 [2] - Qwen3-30B-A3B可单卡4090部署,Qwen3-235B-A22B仅需4张H20,显存占用为性能相近模型的三分之一,大幅降低部署成本 [2][6] - 与DeepSeek-R1相比参数量仅为其1/3,成本大幅下降,降低中小企业和个人开发者使用高性能模型的门槛 [6] 性能表现与局限性 - 在生成复杂代码、数学推理等方面思考模式表现明显优于非思考模式,但长文本能力表现不突出且存在一定幻觉率 [6] - 测试显示"普通"模式生成报告时出现较高幻觉率,而"深度思考"模式下幻觉率大幅降低,数据准确性提升 [6] 公司战略布局 - 阿里未来三年将投入超3800亿元用于云和AI硬件基础设施建设,强化通义千问与夸克的"双子星"格局 [7] - 通义千问专注云上智能支撑,夸克打造端侧入口,两大App所有用户均可免费使用Qwen3开源模型 [7] - 夸克2025年3月MAU达1.48亿登顶国内AI应用榜首,公司通过组织调整整合天猫精灵与夸克团队推进AI To C战略 [9] 行业竞争态势 - 腾讯混元大模型依托微信生态优势,字节跳动豆包借助抖音推流优势,2024年11月MAU达5998万长期霸榜AI应用前三 [10] - 阿里面临技术优势维持与使用门槛降低的双重挑战,中小企业技术对接与模型二次开发存在困难 [9] - 夸克用户体验稀释问题凸显,需优化技术架构与服务器性能以应对用户快速增长 [10]
华为昇腾全系列支持Qwen3
快讯· 2025-04-29 18:31
阿里通义千问模型Qwen3开源与华为昇腾支持 - 阿里通义千问模型Qwen3于4月29日开源数小时后即获得华为昇腾的全系列模型部署支持 [1] - 开发者可通过华为MindSpeed和MindIE工具实现千问3的0Day适配即开箱即用 [1] - 千问3是国内首个"混合推理模型"集成"快思考"与"慢思考"机制 [1] 千问3技术特性 - 模型对简单需求采用低算力"秒回"模式显著提升响应效率 [1] - 对复杂问题启用多步骤"深度思考"功能优化计算资源分配 [1] - 混合推理架构设计实现整体算力消耗的大幅节省 [1]
【昇腾全系列支持Qwen3】4月29日讯,据华为计算公众号,Qwen3于2025年4月29日发布并开源。此前昇腾MindSpeed和MindIE一直同步支持Qwen系列模型,此次Qwen3系列一经发布开源,即在MindSpeed和MindIE中开箱即用,实现Qwen3的0Day适配。
快讯· 2025-04-29 14:27
昇腾全系列支持Qwen3 - Qwen3于2025年4月29日发布并开源 [1] - 昇腾MindSpeed和MindIE此前已同步支持Qwen系列模型 [1] - Qwen3系列发布后立即在MindSpeed和MindIE中实现开箱即用 [1] - 昇腾全系列完成Qwen3的0Day适配 [1]