Workflow
摩尔线程(688795)
icon
搜索文档
举办首届MUSA开发者大会,摩尔线程现场展示落地成果
21世纪经济报道· 2025-12-20 19:12
公司技术成果发布 - 公司于12月20日在北京举办首届MUSA开发者大会,展示了其基于MUSA统一架构为核心的全栈技术成果及落地成果 [1] - 公司发布“夸娥万卡”高效训练智算集群,展示了其支撑万亿参数模型训练的工程化能力与可靠性,在多项关键精度指标上达到国际主流水平 [1] - 公司联合硅基流动,在DeepSeek R1 671B全量模型上实现推理性能突破,其MTT S5000单卡Prefill吞吐突破4000 tokens/s、Decode吞吐突破1000 tokens/s [1] 新产品发布 - 公司正式发布全新个人智算平台,包括搭载智能SoC芯片“长江”的AI算力本MTT AIBOOK,以及迷你型计算设备MTT AICube [1]
效能提升10倍!摩尔线程新一代全功能GPU架构“花港”正式发布
北京商报· 2025-12-20 18:42
公司新产品与技术发布 - 摩尔线程于12月20日举办首届MUSA开发者大会,发布了新一代全功能GPU架构“花港” [1] - “花港”架构基于公司自研的MUSA统一计算架构,覆盖从芯片架构到软件运行库的全栈技术体系 [1] - 新架构支持从FP4到FP64的全精度计算,计算密度提升50%,效能提升10倍 [1] - 新架构在计算密度、能效、精度支持、互联能力及图形技术等方面实现全面突破 [1] 新架构核心特性 - 计算性能显著提升:基于新一代指令集,算力密度提升50%,能效大幅优化;支持FP4到FP64全精度计算,新增MTFP6/MTFP4及混合低精度支持 [2] - 异步编程与超大规模互联:集成新一代异步编程模型,优化任务调度与并行机制;通过自研MTLink高速互联技术,支持十万卡以上规模智算集群扩展 [2] - 图形与AI深度融合:内置AI生成式渲染架构,增强硬件光线追踪加速引擎,完整支持DirectX 12 Ultimate,实现图形渲染与智能计算的高度协同 [2] - 全栈自研、安全可信 [2] 公司未来产品规划 - 公司将基于“花港”架构推出高性能AI训推一体“华山”芯片与专攻高性能图形渲染的“庐山”芯片 [2] 公司其他新产品发布 - 公司发布了夸娥万卡智算集群,该集群具备全精度、全功能通用计算能力,在万卡规模下实现高效稳定的AI训练与推理 [2] - 公司正式发布搭载智能SoC芯片“长江”的AI算力本MTT AIBOOK [2] 公司战略与行业观点 - 公司认为生态体系是GPU行业的核心护城河与价值所在 [3] - 公司依托MUSA架构优势,持续加大研发投入,致力于攻克从硬件到软件的核心技术挑战 [3] - 公司以开放创新不断深化与生态伙伴的协同,共同构建自立自强的国产计算产业生态 [3]
摩尔线程新一代GPU架构“花港”发布,支持十万卡智算集群扩展
凤凰网· 2025-12-20 18:20
新一代GPU架构与芯片发布 - 摩尔线程发布新一代全功能GPU架构“花港”,基于新一代指令集,算力密度提升50%,支持从FP4到FP64的全精度端到端计算,新增MTFP6/MTFP4及混合低精度支持,集成新一代异步编程模型,并支持通过自研MTLink高速互联技术实现十万卡以上规模智算集群扩展[1][4] - 基于“花港”架构,公司公布两款芯片技术路线:专注AI训推一体的“华山”芯片,为万卡级智算集群提供算力支撑;专攻高性能图形渲染的“庐山”芯片,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍[1][5][7] - 公司正式发布夸娥万卡智算集群,其浮点运算能力为10Exa-Flops,在Dense大模型上训练算力利用率达60%,在MOE大模型上达40%,有效训练时间占比超过90%,训练线性扩展效率达95%[7] 新产品与解决方案 - 公司推出夸娥万卡智算集群、MT Lambda具身智能仿真训练平台以及基于“端云结合”的MT Robot具身智能解决方案,并宣布将于2026年第一季度开源关键仿真加速组件Mujoco-warp-MUSA[7][9] - 公司发布面向开发者的AI算力本MTT AIBOOK,搭载自研“长江”智能SoC,提供高达50TOPS的端侧AI算力,同时预告了基于“长江”SoC打造的迷你型计算设备MTT AICube[9] - 公司公布MTT C256超节点的架构规划,该产品采用计算与交换一体化的高密设计,旨在系统性提升万卡集群的训练效能与推理能力[11] - 当虹科技、中望软件、中控技术等多家科创板上市公司与摩尔线程开展合作,涉及多模态空间大模型、时间序列大模型适配及全栈国产化三维CAD一体化解决方案[3] 软件生态与开发者战略 - 公司将MUSA软件架构升级到5.0版本,兼容TileLang、Triton等编程语言,核心计算库muDNN实现GEMM/FlashAttention效率超98%,通信效率为97%,编译器性能提升3倍,并计划逐步开源计算加速库、通信库及系统管理框架在内的核心组件[12] - 公司即将推出兼容跨代GPU指令架构的中间语言MTX、面向渲染+AI融合计算的编程语言muLang、量子计算融合框架MUSA-Q以及计算光刻库muLitho[12] - 行业专家指出,国产GPU芯片要实现生态自立,关键在于解决迁移成本高、工具链不成熟、文档/社区与支持不足等问题,实现从“能用”到“愿用”的转变,开发者是生态的核心资源[10][12] - 针对国产AI芯片软件生态存在的“内卷”与碎片化问题,专家呼吁建立统一或高度兼容的接口标准,通过产业联盟推动联合优化,并在关键基础软件上形成共享的开放底座[13] 大规模智算集群的发展与挑战 - 行业观点认为,从主权AI基建角度,“万卡甚至十万卡集群”是必选项,因为模型时代的基本单位是集群总算力,预训练超大规模模型、服务国民级推理需求需要持续可用的万卡级训练集群[14] - 构建大规模集群的主要工程挑战包括:基于以太网等通用网络实现All-Reduce与低延迟通信、提升可靠性与运维能力以应对单点故障常态、以及满足百兆瓦级电力需求所需的机房与园区级综合设计[14] - 国产集群实践表明,在“通用网络+自研通信库+软硬件”协同设计下,可以构建“可用”的大规模系统,但这需要长期持续的工程投入[14]
摩尔线程发布“花港”架构,力推国产万卡智算生态
21世纪经济报道· 2025-12-20 17:47
核心观点 - 摩尔线程在首届MUSA开发者大会上发布了下一代全功能GPU架构“花港”及基于该架构的多款芯片与产品,旨在通过架构创新提升算力密度与效能,并展示了其在万卡智算集群、软件生态及前沿技术领域的全面布局,以推动国产GPU生态发展 [1][2][4] 公司技术发布与产品 - 发布新一代全功能GPU架构“花港”,采用新指令集与异步编程模型,在相同工艺下算力密度提升50%,效能提升10倍,支持从FP4到FP64全精度计算,并通过自研MTLink技术支持十万卡以上智算集群扩展,单个节点支持1024卡 [1][2] - 基于“花港”架构推出“华山”芯片,面向AI训推一体与超大规模智能计算,其浮点算力、访存带宽、高速互联带宽指标介于英伟达Blackwell与Hopper架构之间,访存容量优于两者 [4] - 基于“花港”架构同步推出“庐山”芯片,侧重高性能图形渲染,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并增强了纹理填充和显存容量 [4] - 发布“夸娥”万卡智算集群,浮点运算能力达10 Exa-Flops,在万卡规模下对Dense大模型训练算力利用率(MFU)为60%,对MoE大模型算力利用率为40%,有效训练时间占比超90%,训练线性扩展效率为95% [4] - 在推理性能实测中,与硅基流动合作优化DeepSeek R1 671B全量模型,MTT S5000单卡Prefill吞吐超4000 tokens/s,Decode吞吐超1000 tokens/s [4] - 发布搭载自研“长江”SoC芯片的MTT AIBOOK笔记本电脑,端侧AI算力为50 TOPS,并预告了基于同一SoC的迷你计算设备MTT AICube [7] - 在图形技术领域,公司支持主流API并完成国产适配,即将完整支持DirectX 12 Ultimate,推出AI生成式渲染技术MTAGR 1.0,并发布具身智能仿真训练平台MT Lambda,计划于2026年Q1开源关键仿真加速组件 [8] 公司软件生态与研发进展 - 升级MUSA统一计算架构至5.0版本,其核心计算库muDNN的GEMM和FlashAttention效率超98%,通信效率达97%,编译器性能提升3倍,并计划逐步开源计算加速库、通信库及系统管理框架等核心组件 [7] - 披露了兼容跨代GPU指令架构的中间语言MTX、量子计算融合框架MUSA-Q以及计算光刻库muLitho等前瞻技术 [7] - 公司提及在科学智能(AI4S)、量子科技、AI for 6G等前沿交叉领域的布局,并宣布建设MUSA生态中心,启动开发者计划 [8] 公司发展历程与市场表现 - 公司过去四年保持每年迭代一个芯片架构的节奏:2022年“苏堤”架构解决信创PC GPU国产化;2023年“春晓”架构带来量产游戏显卡S80和云端渲染芯片S3000;2024年“曲院”架构S4000开启AI训推一体并实现千卡集群;今年基于“平湖”架构的S5000已建成万卡智算集群 [6][7] - 公司于2020年10月成立,核心团队包括原英伟达中国区总经理张建中及CTO张钰勃,技术路线对标英伟达通用GPU路径 [9] - 公司于12月5日以114.28元/股登陆科创板,截至12月19日收盘,股价累计涨幅达481%,报664.10元/股,市值约3121.46亿元 [9] 行业背景与机遇 - 受国际环境对高端芯片进口限制影响,国产AI芯片市场空间有所增长,行业受到资本市场大力追捧 [9]
摩尔线程,发布新一代GPU架构
新浪财经· 2025-12-20 17:35
公司产品发布 - 摩尔线程发布新一代GPU架构“花港” [1] - 新架构具备新一代指令集 [1] - 新架构算力密度提升50% [1] - 新架构能效提升10倍 [1] - 新架构集成全精度端到端加速技术 [1] - 新架构支持10万卡以上规模智算集群 [1] 产品技术特性 - 新架构搭载第一代AI生成式渲染架构 [1] - 新架构搭载第二代光线追踪硬件加速引擎 [1]
冲击“Physical AI 第一股”!五一视界(06651)与摩尔线程(688795.SH)深度合作 构建下一代物理AI仿真体系
智通财经网· 2025-12-20 16:53
公司与合作伙伴的战略合作 - 摩尔线程与五一视界旗下仿真平台51Sim围绕KUAE智算集群构建下一代物理AI仿真体系进行深度合作 [1] - 合作以国产GPU大规模算力为基础,以新一代仿真与世界模型技术为核心 [1] - 双方共同探索面向端到端智能驾驶、具身智能的物理AI基础设施建设路径 [1] 技术革新与行业痛点 - 传统仿真依赖人工建模和规则驱动,存在构建周期长、成本高、泛化能力有限及“置信度鸿沟”等痛点 [3] - 51Sim以“4DGS重建 + 生成式世界模型”为基础,构建“重建 + 生成”的下一代仿真技术底座 [3] - 该技术推动仿真体系从“手工搭建”走向“AI自动生成” [3] 算力需求与基础设施 - “重建 + 生成”的物理AI仿真体系对算力提出前所未有的高要求 [3] - 神经场景重建、世界模型训练、大规模合成数据生成、闭环仿真、强化学习均需要高并发、长时间、稳定的GPU计算资源 [3] - 51Sim携手摩尔线程,基于海量、统一、可规模化的算力底座,构建了覆盖训练与推理的完整物理AI仿真体系 [3] 合作进展与业务落地 - 双方共建的物理AI仿真体系已推动“重建 + 生成”能力进入工程化阶段 [3] - 该体系已率先在智能驾驶领域实现规模化落地应用,支撑端到端智驾算法的闭环验证 [3] - 未来计划将智能驾驶领域的落地经验拓展至具身智能等更广泛的物理AI应用场景 [3] 资本层面的协同与展望 - 摩尔线程是五一视界的战略股东,在资本层面为其坚定护航 [4] - 五一视界正以18C章程冲刺“Physical AI第一股”,计划于2025年12月30日在港交所正式挂牌 [4] - 双方先后踏上资本化道路,有望获得充足资金以加速技术研发与市场拓展,形成更强协同效应,带动国产GPU和Physical AI产业链发展 [4]
冲击“Physical AI 第一股”!五一视界与摩尔线程深度合作 构建下一代物理AI仿真体系
智通财经· 2025-12-20 16:51
公司与行业合作 - 摩尔线程与五一视界旗下仿真平台51Sim围绕KUAE智算集群构建下一代物理AI仿真体系进行深度合作 [1] - 合作以国产GPU大规模算力为基础,以新一代仿真与世界模型技术为核心 [1] - 双方共同探索面向端到端智能驾驶、具身智能的物理AI基础设施建设路径 [1] 技术革新与行业痛点 - 传统仿真依赖人工建模和规则驱动,存在构建周期长、成本高、泛化能力有限及与真实世界存在“置信度鸿沟”等痛点 [3] - 51Sim以“4DGS重建+生成式世界模型”为基础,构建“重建+生成”的下一代仿真技术底座,推动仿真体系从“手工搭建”走向“AI自动生成” [3] - “重建+生成”的物理AI仿真体系对算力提出前所未有的高要求,需要高并发、长时间、稳定的GPU计算资源以支持神经场景重建、世界模型训练、大规模合成数据生成、闭环仿真及强化学习等环节 [3] 合作成果与落地应用 - 51Sim携手摩尔线程,基于海量、统一、可规模化的算力底座,构建了覆盖训练与推理的完整物理AI仿真体系 [3] - 合作推动“重建+生成”能力进入工程化阶段,使物理AI的训练与推理场景从实验室走向真实业务的规模化落地 [3] - 目前共建的物理AI仿真体系已率先在智能驾驶领域实现规模化落地应用,支撑端到端智驾算法的闭环验证 [3] - 未来计划将智能驾驶领域的落地经验拓展到具身智能等更广泛的物理AI应用场景,探索可复制、可扩展的物理AI发展路径 [3] 资本协同与产业发展 - 摩尔线程是五一视界的战略股东,在资本层面为其坚定护航 [4] - 五一视界正以18C章程冲刺“Physical AI第一股”,计划于2025年12月30日在港交所正式挂牌 [4] - 两家公司先后踏上资本化道路,有望获得充足资金以加速技术研发与市场拓展,形成更强协同效应,进而带动国产GPU和Physical AI产业链发展 [4]
摩尔线程,突发大消息!
中国基金报· 2025-12-20 16:50
核心观点 - 摩尔线程在首届MUSA开发者大会上发布了新一代GPU架构“花港”及未来芯片路线图,并推出夸娥万卡智算集群,展示了其在全栈GPU技术和AI算力基础设施方面的进展 [1][2][4] - 公司同时布局具身智能等前沿领域,发布了MT Lambda仿真训练平台和MT Robot解决方案 [5][6] - 行业层面,中科曙光同期展示了国产万卡级算力集群真机,表明国产高端算力集群已进入实际部署和竞争阶段 [5] 技术架构与产品发布 - 公司发布了自主研发的元计算统一架构MUSA,作为覆盖芯片到软件的全栈技术体系战略基石 [2] - 基于MUSA,公司揭晓了新一代全功能GPU架构“花港”,在计算密度、能效、精度和互联等方面实现突破 [2] - “花港”架构核心特性包括:算力密度提升50%,支持FP4到FP64全精度计算,新增MTFP6/MTFP4低精度支持 [2] - 架构集成新一代异步编程模型,并通过自研MTLink技术支持十万卡以上规模智算集群扩展 [2] - 架构内置AI生成式渲染,增强硬件光线追踪,完整支持DirectX 12 Ultimate,实现图形与AI计算协同 [2] 未来芯片路线图 - 基于“花港”架构,公司公布了两款未来芯片:“华山”和“庐山” [3] - “华山”芯片专注AI训推一体与超大规模智能计算,旨在为万卡级智算集群提供算力底座 [3] - “庐山”芯片专攻高性能图形渲染,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并增强纹理填充和显存容量 [3] 算力集群发布 - 公司正式发布了夸娥万卡智算集群,具备全精度、全功能通用计算能力 [4] - 该集群在万卡规模下可实现高效稳定的AI训练与推理 [4] - 集群核心性能指标包括:浮点运算能力达10 Exa-Flops,在Dense大模型上训练算力利用率达60%,在MOE大模型上达40%,有效训练时间占比超90%,训练线性扩展效率达95% [4] - 集群与国际主流生态高度兼容,并具备显著能效优势 [4] - 值得注意的是,公司未在现场展示上述产品实物 [5] 行业动态与竞争 - 在中科曙光的光合组织2025大会上,曙光scaleX万卡超集群系统以真机形式公开亮相,这是国产万卡级算力集群首次真机亮相 [5] - 曙光scaleX在超节点架构、高速互连网络、存储性能优化、系统管理调度等方面实现多项创新突破 [5] - 曙光部分技术与能力据称已超越英伟达研发路线图的2027年NVL576里程节点 [5] 前瞻性业务布局 - 公司发布了MT Lambda具身智能仿真训练平台,深度融合物理、渲染与AI三大引擎,构建开发、仿真、训练的统一环境 [5] - 公司推出了MT Robot具身智能解决方案,该方案基于智能SoC芯片“长江”、AI模组MTT E300和夸娥智算集群,实现“端云结合” [6]
摩尔线程张建中:智算集群将做到50万卡、100万卡规模
第一财经· 2025-12-20 16:37
公司产品与技术进展 - 公司于2024年12月20日首届MUSA开发者大会上公布了新的“花港”GPU架构及基于该架构的三款新芯片:华山(AI训推一体芯片)、庐山(图形渲染芯片)和长江(SoC系统级芯片)[1] - 新推出的“花港”架构算力密度比前一代提升50%,支持从FP4到FP64的全精度计算,并支持十万卡以上规模智算集群扩展[1] - 公司GPU架构保持每年迭代节奏:2022年“春晓”架构(S3000)、2023年“曲院”架构(S4000)、2024年“平湖”架构(S5000)[1] - 新一代AI训推一体芯片“华山”的浮点计算能力介于英伟达Blackwell和Hopper之间,其访存带宽与Blackwell接近,高速互联带宽在Hopper和Blackwell之间[3] - 公司产品支持的计算精度范围持续扩大,上一代板卡S5000开始支持FP8精度,新一代“华山”芯片开始支持FP4精度[2][3] 产品性能与对比 - 公司S4000板卡在FP32、TF32、FP16、INT8精度下的算力分别为25 TFLOPS、49 TFLOPS、98 TFLOPS、196 TOPS,最大功耗450W[2] - 在DeepSeek-R1全量模型分布式推理场景中,S5000的Prefill Only、Decode单卡吞吐量分别是H20等常见芯片产品的约2.5倍、1.3倍[3] - 与英伟达2020年推出的A100 80GB PCle相比,A100在相同精度下的算力分别为19.5TFLOPS、156TFLOPS、312TFLOPS、624TOPS,最大功耗300W,S4000在一些精度下的算力表现和功耗表现不及A100[2] 智算集群发展规划 - 公司AI智算板卡支持的集群规模持续提升,2024年推出第一代千卡集群,今年达到1万卡,并计划未来扩展至10万卡、50万卡、100万卡规模[1][3] - 构建万卡智算集群的工程难度涉及超大集群供电及液冷散热、超大规模互联组网及通信、集群训练有效算力、训练稳定性与可用性、模型训练精度与效果测评等方面[5] - 行业大模型训练发展趋势包括模型走向万亿参数、训练集群规模迈向10万卡、训练精度从FP16走向FP8和FP4,未来需解决高效并行训练、低精度训练及高性能通信等挑战[5] 公司其他动态 - 公司于2024年12月5日在科创板上市,发行价为114.28元/股,股价随后出现较大波动,12月11日收盘价超900元/股,12月19日收盘价为664.1元/股[5] - 公司在此次开发者大会上还推出了具身智能仿真训练平台和AI算力笔记本MTT AIBOOK[5] - 公司目前尚未盈利,截至2024年6月底累计未弥补亏损为16亿元,并预计2027年可实现合并报表盈利[5]
五一视界与摩尔线程深度合作 释放机器人测试训练无限可能
格隆汇APP· 2025-12-20 16:20
文章核心观点 - 摩尔线程与五一视界旗下51Sim平台深度合作,共同构建以国产GPU算力为基础、以新一代仿真与世界模型技术为核心的下一代物理AI仿真体系,旨在推动端到端智能驾驶和具身智能等领域的物理AI基础设施建设 [1][3] 合作内容与技术方案 - 合作双方以国产GPU大规模算力为基础,以新一代仿真与世界模型技术为核心,探索面向端到端智能驾驶、具身智能的物理AI基础设施建设路径 [1] - 51Sim以“4DGS重建 + 生成式世界模型”为基础,构建“重建 + 生成”的下一代仿真技术底座,推动仿真体系从“手工搭建”走向“AI自动生成” [3] - “重建 + 生成”的物理AI仿真体系对算力要求极高,神经场景重建、世界模型训练、大规模合成数据生成、闭环仿真、强化学习均需要高并发、长时间、稳定的GPU计算资源 [3] - 51Sim携手摩尔线程,基于海量、统一、可规模化的算力底座,构建了覆盖训练与推理的完整物理AI仿真体系,推动“重建 + 生成”能力进入工程化阶段,让相关场景从实验室走向真实业务的规模化落地 [3] 应用落地与未来规划 - 目前,共建的物理AI仿真体系已率先在智能驾驶领域实现规模化落地应用,支撑端到端智驾算法的闭环验证 [3] - 未来,双方计划将智能驾驶领域的落地经验拓展到具身智能等更广泛的物理AI应用场景,探索一条可复制、可扩展的物理AI发展路径 [3] 资本层面协同 - 摩尔线程是五一视界的战略股东,在资本层面为其坚定护航 [4] - 五一视界正以18C章程冲刺“Physical AI第一股”,计划于2025年12月30日在港交所正式挂牌 [4] - 两家公司先后踏上资本化道路,有望获得充足资金以加速技术研发与市场拓展,形成更强协同效应,进而带动国产GPU和Physical AI产业链发展 [4]