Workflow
MoE模型
icon
搜索文档
三位顶流AI技术人罕见同台,谈了谈AI行业最大的「罗生门」
36氪· 2025-05-28 19:59
AI技术发展路径的共识与非共识 - 预训练技术从2023年的行业共识到2025年面临质疑,OpenAI前首席科学家公开认为"预训练已走到尽头",而DeepSeek R1等强化学习模型崛起[1] - 蚂蚁集团技术开放日圆桌讨论显示,行业分化成两派:曹越、孔令鹏等通过跨架构创新(如语言模型应用Diffusion、视频模型采用自回归)实现突破,阿里则坚持Transformer等传统路径[3][4][14] - 当前行业呈现多元探索态势,参与者形容为"摸彩票",不同技术路线本质是平衡模型偏差与数据偏差的尝试[7][17][18] 主流架构的技术突破 - 扩散模型创新:Dream 7B以7B参数量超越671B的DeepSeek V3,通过双向学习处理并行任务,在数学/代码任务表现突出[3][8][17] - 视频模型革新:曹越团队将自回归应用于视频生成,突破Sora无时序先验的限制,通过编码时间关系提升信息利用率[10][11][12] - Transformer持续主导:阿里内部多次"魔改"Transformer后仍确认其最优性,但承认MOE架构在扩展性上的潜力[5][14][16] 模型优化与效率挑战 - MOE架构进展:DeepSeek实现1:20+稀疏比,阿里测试显示1:10-1:20区间效果最佳,但专家数增加会降低训练稳定性[19][20][22] - 多模态融合创新:通过Attention稀疏化提升跨模态效率,端到端优化Tokenize到联合建模的全流程[24][25][26] - 硬件制约明显:GPU对Transformer训练非最优,行业呼吁软硬一体解决方案[34][35][36] 预训练与数据应用趋势 - 预训练价值分歧:2024年认为数据枯竭是共识,2025年美国新观点认为仍有潜力,阿里证实数据增量仍能提升模型性能[38][39] - 算力驱动创新:历史显示算力增长可激活曾被放弃的技术,当前需重点优化算力利用率[40][41] - 创造本质探索:将创作定义为搜索问题,通过可能性空间遍历实现智能生成[42][43] 行业现存问题与应对 - 幻觉控制难题:强化学习可能加剧错误推理模式,阿里尝试通过稀疏自编码器(SAE)定位并抑制相关特征[30][31] - 架构选择成本:模型结构需同时兼容预训练与强化学习,当前每次技术押注成本显著上升[20][33] - 技术迭代哲学:行业进步类似飞机航道调整,需动态修正而非预测终极形态[44][45]
从“积木堆叠”到“有机生命体”:昇腾超节点重新定义AI算力架构
环球网· 2025-05-26 18:06
大模型算力需求与挑战 - 大模型参数量增长推动算力需求进入新纪元,传统集群架构受通信效率制约成为训练效率瓶颈 [1] - 传统集群架构面临三大核心痛点:通信瓶颈恶化(MoE模型节点间通信量几何级增长,400G网络时延超2ms)、资源分配粗放(静态划分导致效率下降30%以上)、可靠性脆弱(万卡集群每周故障2-3次,单次损失超百万美元)[1][2] - 行业需求从"算力堆砌"转向"效率革命",需构建"以数据流动为核心"的新架构 [1][2] 昇腾超节点技术架构创新 - 硬件互联突破:高速总线连接多颗NPU,跨节点通信带宽提升15倍,时延从2ms降至0.2ms [3] - 全局内存统一编址:虚拟化技术实现跨节点直接内存访问,消除参数同步的传统流程,提升小包数据传输效率 [5] - 智能资源调度:动态切分MoE模型任务(如288专家分配至独立NPU),计算与通信耗时比从1:1优化至3:1 [5] - 可靠性革新:七平面链路设计+秒级故障切换+算子级重传,无故障时长从几小时提升至几天,恢复时间缩短至15分钟 [5][6] 昇腾超节点性能与产业落地 - 构建384卡高速总线互联体系,训练性能达传统节点3倍,深度适配MoE模型释放潜力 [8] - MindIE Motor推理服务单卡吞吐达传统服务器4倍,超节点+大EP方案性能为业界4倍 [8] - 推出多模态理解SDK和昇腾推理微服务MIS,简化应用部署流程 [8] - 2022年起与DeepSeek等企业联合实验室优化架构,形成"需求驱动创新"闭环 [8] 行业技术哲学与趋势 - 架构创新成为后摩尔定律时代核心,需攻克高速互联、动态调度等世界级难题 [9] - 昇腾超节点技术突破使算力不再成为创新桎梏,推动AI产业进入"万类霜天竞自由"阶段 [9]
昇腾杀手锏FlashComm,让模型推理单车道变多车道
雷峰网· 2025-05-22 19:29
大模型推理中的通信挑战与华为解决方案 核心观点 - 华为通过创新通信技术突破MoE模型推理中的三大通信难题,显著提升大模型推理效率[1][19] 大模型推理的通信基础 - 大语言模型参数规模呈指数级增长,部署形态从单卡演进至数百卡集群,MoE模型成为新趋势[2] - 集合通信操作(如AllReduce、All-Gather)是大模型多节点协作的关键,支持张量并行(TP)、数据并行(DP)、专家并行(EP)等策略[4][5] MoE模型的通信痛点 - MoE模型参数突破千亿级别,专家数量增长导致通信带宽需求呈平方级增长,引发网络拥塞[6] - 传统AllReduce在TP方案中跨节点带宽受限,端到端推理时延占比过高[7] - 计算与通信强耦合导致硬件资源利用率低下,流程串行化加剧性能瓶颈[6][11] 华为三大技术创新 1 多流并行技术 - 将MoE计算流程拆解为激活通信、门控决策等模块,通过昇腾多流引擎实现三股计算流并行[12] - 采用TP8分片与流水线技术,多卡并行时释放2GB内存,DeepSeek模型Prefill阶段提速超10%,Decode吞吐提升25%-30%[12] 2 AllReduce革新 - 将AllReduce拆解为ReduceScatter+AllGather,插入INT8动态量化技术使通信量降35%[14] - 关键计算量减少至1/8,DeepSeek Prefill性能提升22-26%,Llama3.1-70B Decode性能提升14%[14] 3 以存换传技术 - 通过矩阵乘法并行维度调整,将三维张量压缩为二维矩阵,注意力机制阶段通信量降86%[15] - 结合INT8量化使DeepSeek整体推理速度提升33%[15] 技术体系与未来方向 - FlashComm系列技术通过通信算子重构、数据维度优化和计算流程并行化实现端到端加速[19] - 未来将聚焦超大规模EP下的权重自动预取、模型自动多流并行等方向[19] 行业影响 - 华为技术已应用于DeepSeek V3/R1等超大规模MoE模型,国产芯片推理性能达国际领先水平[21] - 昇腾平台实现MoE专家动态部署优化,系统吞吐提升10%[21]
华为+DeepSeek,推理性能创新高!技术报告也公布出来了
量子位· 2025-05-19 12:37
华为昇腾技术突破 - 华为昇腾在超大规模MoE模型推理性能上全面超越英伟达Hopper架构,实现"英伟达含量为0"的突破 [1] - 通过"以数学补物理"策略,利用数学理论、算法和建模弥补硬件局限,最大化发挥芯片和系统能力 [1] - 具体产品性能: - CloudMatrix 384超节点在50ms时延下单卡Decode吞吐达1920 Tokens/s [1][18] - Atlas 800I A2推理服务器在100ms时延下单卡吞吐达808 Tokens/s [1][21] 技术开源与披露 - 公司将全面开源昇腾超大规模MoE模型推理部署技术,包括技术报告和核心代码 [2] - 技术披露周活动将展示最新进展,相关资源可通过指定链接获取 [40][41] 行业趋势与挑战 - 大模型发展重心从训练转向推理应用落地,企业竞争焦点转向推理效率 [5][6] - 超大规模MoE模型(如6710亿参数的DeepSeek V3)带来三大挑战: - 内存压力:单个专家2.5G,64GB内存硬件难以承载 [7] - 通信开销:跨芯片数据传输耗时超过计算时间 [8] - 架构创新负担:如MLA机制导致中间变量激增 [9] 技术解决方案 硬件部署优化 - 采用PD分离部署解耦Prefill和Decode时延约束 [10] - CloudMatrix 384超节点采用144卡EP并行部署,128卡专用于路由专家 [17] - Atlas 800I A2采用多节点互联,2机16卡Prefill+4机32卡Decode [20] 框架与模型优化 - 基于vLLM框架适配DP/EP并行策略,优化调度分桶和分层传输 [12] - 采用A8W8C16量化策略(INT8+BF16),差异化部署不同机型 [13] - API Server横向扩展方案提升高并发场景QPS,动态负载均衡技术解决显存占用问题 [22] 通信优化 - FlashComm方案降低25%通信量并提升10%推理性能 [25] - 层内并行转换方案消除节点内卡间求和操作 [26] - 计算通信并发机制最大化硬件利用率,MLA层计算性能提升10% [27] 算子优化 - AMLA算法将乘性计算转为加性等价形式,减少数据搬运 [31] - L1/L2缓存精细化管理提升命中率,K-buffer流水排布掩盖计算耗时 [31] - 通算融合算子实现Token粒度流水排布,降低卡间同步开销 [31] 性能实测数据 - Prefill阶段:16K序列端到端耗时631ms,卡均吞吐1622 Tokens/s [34][36] - Decode阶段: - 2K输入+2K输出场景下吞吐达808 Tokens/s(90%接受率) [32] - 1K输入+2K输出场景下吞吐达876 Tokens/s(90%接受率) [32] - SiliconLLM框架部署DeepSeek-R1实现单卡1920 Tokens/s,等效H100性能 [38][39]