周末重磅!摩尔线程 首次公开

核心观点 - 摩尔线程在首届MUSA开发者大会上,首次公开了其全功能GPU技术路线图,并发布了包括新一代GPU架构“花港”、夸娥万卡智算集群、AI算力本等一系列技术与产品进展,标志着公司已构建起贯穿“芯-边-端-云”的完整自主技术栈,并致力于加速构建国产计算产业生态 [2][3][11] 新一代GPU架构与芯片路线图 - 公司宣布其自主研发的元计算统一架构MUSA升级至5.0版本,在全栈统一性、效能与生态开放性上取得关键突破 [3] - 基于MUSA发布了新一代GPU架构“花港”,基于新一代指令集,支持FP4到FP64的全精度计算,算力密度提升50%,能效提升10倍,可支持十万卡以上规模智算集群 [3] - 基于“花港”架构,公布了未来两款芯片技术路线:“华山”专注AI训推一体与超大规模智能计算,支持从FP4至FP64的全精度计算,为万卡级智算集群提供算力支撑 [3] - “庐山”专攻高性能图形渲染,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并显著增强纹理填充、原子访存能力及显存容量,集成AI生成式渲染等新技术 [5] 夸娥万卡智算集群与算力突破 - 发布了夸娥万卡智算集群,具备全精度、全功能通用计算能力,在万卡规模下实现高效稳定的AI训练与推理 [7] - 该集群浮点运算能力达到10Exa-Flops,训练算力利用率在Dense大模型上达60%,在MOE大模型上达40%,有效训练时间占比超过90%,训练线性扩展效率达95% [7] - 推理侧,联合硅基流动在DeepSeek-R1 671B全量模型上实现单卡推理性能突破,MTT S5000单卡Prefill吞吐突破4000tokens/s、Decode吞吐突破1000tokens/s [7] - 训练侧,基于原生FP8能力完整复现顶尖大模型训练流程,Flash Attention算力利用率超95%,并突破FP8累加精度等关键技术瓶颈 [7] - 发布了MTT C256超节点的架构规划,采用计算与交换一体化的高密设计,旨在系统性提升万卡集群的训练效能与推理能力 [7] 图形计算与具身智能布局 - 图形产品已全面支持DirectX 12、OpenGL 4.6、Vulkan 1.3等主流API,并将完整支持DirectX 12 Ultimate,与国产主流CPU及操作系统完成了全栈适配 [8] - 在核心渲染技术上取得两项关键突破:基于“花港”架构的硬件光线追踪加速引擎,可支持DirectX Raytracing;推出全自研的AI生成式渲染技术MTAGR 1.0 [8] - 发布了MT Lambda具身智能仿真训练平台,深度融合物理、渲染与AI三大引擎,构建开发、仿真、训练的统一环境 [8] - 推出基于智能SoC芯片“长江”、AI模组MTT E300和夸娥智算集群的MT Robot具身智能解决方案 [8] - 公司计划于2026年第一季度开源关键仿真加速组件Mujoco-warp-MUSA [9] - MUSA生态还与合作伙伴在科学智能、量子科技、AI for 6G等前沿交叉领域展开探索 [10] 生态建设与开发者体系 - 公司认为生态体系是GPU行业的核心护城河与价值所在,致力于以开放创新深化与生态伙伴的协同,共同构建国产计算产业生态 [11] - 以摩尔学院为平台,已构建产教融合的开发者成长体系,目前汇聚近20万名开发者与学习者 [11] - 通过“国产计算生态与AI教育共建行动”将前沿技术与产业实践带入全国200多所高校,吸引超10万名学子参与 [11] 端侧计算产品 - 发布了搭载智能SoC芯片“长江”的AI算力本MTT AIBOOK,提供50TOPS的端侧AI算力,实现了专业AI开发的“开箱即用”,并打破了Linux开发、Windows办公与Android应用之间的场景壁垒 [12] - 预告了基于“长江”SoC打造的迷你型计算设备MTT AICube,进一步丰富端侧计算产品形态 [12]