Workflow
大模型进入万亿参数时代,超节点是唯一“解”么?丨ToB产业观察

模型发展趋势 - 企业级应用侧小参数模型成为落地最佳选择 通用大模型参数进入万亿时代 [2] - MoE架构驱动大模型参数规模提升 如KIMI K2开源模型总参数量达1.2万亿 每个Token推理仅激活32B参数 [2] 算力系统挑战 - 万亿参数模型训练算力需求激增 GPT-3训练需2.5万张A100 GPU运行90-100天 万亿模型需求可能达数十倍 [3] - 模型并行和数据并行导致跨节点通信开销大 GPT-4训练算力利用率仅32%-36% 受显存带宽限制 [3] - MoE模型训练稳定性挑战大 梯度范数频繁突刺 KV cache存储需求呈指数级增长 [3] 显存与计算需求 - FP16格式下万亿参数模型权重需20TB显存 动态数据需求超50TB GPT-3需350GB显存 万亿模型需2.3TB [4] - 长序列训练使计算复杂度平方级增长 2000K Tokens训练加剧内存压力 [4] - MoE路由机制导致专家负载不均衡 部分专家过度使用成为瓶颈 [4] 解决方案与技术进展 - 阿里云提出全局负载均衡损失 使模型PPL降低1.5个点 [5] - AI技术方向从预训练转向推理 算力需求从训练侧转向推理侧 [5] - MoE架构分布式训练通信时间占比高达40% 需构建更大Scale Up高速互连域 [5] Scale Up系统优势 - Scale Out集群节点间通信瓶颈放大 InfiniBand时延达10微秒 Scale Up系统将数百颗AI芯片封装为统一计算实体 [6] - 并行计算技术如专家并行、张量并行可拆分模型权重与KV Cache到多芯片 [6] - 构建大规模Scale Up系统是解决万亿模型计算挑战的唯一可行路径 [6] 产品与架构创新 - 浪潮信息发布超节点AI服务器"元脑SD200" 支持64路本土GPU芯片 可单机运行1.2万亿参数Kimi K2模型 [7] - 元脑SD200采用多主机低延迟内存语义通信架构 支持多模型同时运行 [7] - 3D Mesh系统架构实现64卡P2P全互连 拓展跨域互连能力 [8][9] 软硬协同与未来方向 - 软硬协同是突破算力瓶颈核心路径 字节跳动COMET技术将MoE通信延迟从0.944秒降至0.053秒 [10] - 超节点功耗密度达兆瓦级 需软件适配动态功耗调节避免过热降频 [11] - Scale Up与Scale Out将同步发展 Scale Up成为大模型技术重点探索领域 [9]