曙光scaleX万卡超集群系统
搜索文档
万卡集群,郑州抢跑!国家超算互联网核心节点上线试运行
搜狐财经· 2026-02-06 20:06
国家超算互联网核心节点上线 - 国家超算互联网核心节点于2月5日上线试运行,其算力资源由曙光scaleX万卡超集群系统提供支撑,可对外提供超3万卡的国产AI算力,是平台上线以来接入的全国最大单体国产AI算力资源池[1] - 该核心节点可为万亿参数模型训练、高通量推理、AI for Science等大规模AI计算场景提供算力服务[1] 核心节点建设背景与定位 - 国家超算互联网核心节点于2024年4月伴随国家超算互联网工作启动,同年10月28日在河南郑州正式启动建设[3] - 该节点是国家指导建设的综合算力服务平台,已纳入数字中国建设整体布局[3] - 建设核心节点旨在改变国内算力布局相对分散的局面,通过大型基础设施实现算力的统一调度,有效连接供需双方,推动人工智能应用生态的构建与完善[3] 核心节点的技术架构与区位优势 - 郑州核心节点采用的曙光scaleX万卡超集群基于AI计算开放架构设计,可兼容CUDA等主流软件生态,支持多品牌国产加速卡混合部署,具备向十万卡、百万卡规模的灵活扩展能力[3] - 郑州地处中原,与各重要中心城市距离相对较短,具有显著的区位优势[3] - 中原地区具备人才集聚优势,是推动中部崛起的重要战略支点,郑州在数字经济与智慧城市建设方面已积累大量人才资源[3] 核心节点的功能与区域发展影响 - 核心节点启用将极大提升郑州乃至整个中部地区的高性能计算服务能力[4] - 节点将通过高速通信网络与北京、天津、广州、成都等其他节点互联互通,实现算力资源全国统一调度、智能分配和高效协同[4] - 郑州将推动超算资源与本地优势产业深度融合,着力在智能传感器、新能源汽车、高端装备、新材料等领域拓展应用[4] - 郑州将联合高校、科研院所和龙头企业共建国家级重点实验室、技术创新中心和中试平台,聚焦量子计算、类脑智能、空间信息等前沿领域开展联合科研攻关[4] - 郑州将针对性快速建立算力交易统筹体系,加强数据安全隐私保护,不断拓展本地算力服务应用场景[4] 超算互联网的发展阶段与应用模式 - 伴随国家超算互联网的建设和运营,我国算力基础设施建设正从“重建设、轻应用”迈向“建用并重、以用促建”的新阶段[5] - 国家超算互联网平台被描述为“类京东、淘宝模式的算力应用商城”[5] - 截至2025年底,平台已服务100多万用户,应用商品超7200多个,单日处理作业峰值103万个,迄今已累计支撑运行1.96亿次作业[5] 核心节点的测试计划与应用成果 - 核心节点公布了邀测计划,包括轻量试用与大规模测试两大类,可为各行业领域专业用户提供从百卡级到万卡级规模的应用适配测试[7] - 该计划可为创客、初创团队、大学生等群体提供上千卡时、百G存储、千万Tokens等免费试用资源[7] - 核心节点已在人工智能、流域治理、气象预报、分子模拟、工业仿真等关键领域实现创新应用,并已完成400多个主流大模型、世界模型的适配优化[7] - 国家超算互联网平台有望为各类前沿应用场景带来高效普惠的计算服务,让算力像水电一样自由流通、高效易用[7]
国家超算互联网核心节点上线试运行,托举中国AI算力应用关键一跃
搜狐财经· 2026-02-05 23:44
国家超算互联网核心节点上线 - 国家超算互联网核心节点于2月5日在郑州上线试运行 获得发改委、科技部、工信部、国家数据局、国家自然科学基金委及河南省、郑州市政府支持 并有7位计算与应用领域院士专家出席[1] - 上线试运行的算力资源由曙光scaleX万卡超集群系统提供支撑 可对外提供超3万卡的国产AI算力 是平台接入的全国最大单体国产AI算力资源池[1] - 该节点旨在破解AI大模型、AI for Science等需求爆炸式增长带来的算力资源不足瓶颈 同时解决现有超算、智算中心因供需脱节、软硬件不适配等导致的算力闲置问题 提升资源配置效率[3] 核心节点的技术能力与生态 - 曙光scaleX万卡超集群基于AI计算开放架构 全面兼容CUDA等主流软件生态 支持多品牌国产加速卡混合部署 具备向十万卡、百万卡规模灵活扩展的能力[3] - 该节点已完成400多个主流大模型、世界模型的适配优化 依托国家超算互联网实现一体化算力调度 可接入上千款应用 旨在为全球用户提供好用易用的中国AI算力[3] - 国家超算互联网率先上线全国产AI超集群 标志着国产AI算力基础设施已跻身国际领先行列 并体现出推动国产算力应用生态发展的责任担当[3] 平台应用价值与运营成果 - 国家超算互联网平台被描述为“类京东、淘宝模式的算力应用商城” 旨在让算力像水电一样自由流通、高效易用[5] - 截至2025年底 平台已服务100多万用户 应用商品超7300多个 单日处理作业峰值达103万个 累计支撑运行1.96亿次作业 大幅降低了算力成本和使用门槛[5] - 平台为核心节点发布了邀测计划 包括轻量试用与大规模测试两类 可为专业用户提供从百卡级到万卡级的应用适配测试 并为创客、初创团队、大学生等提供上千卡时、百G存储、千万Tokens等免费试用资源[7] - 会上发布了核心节点首批千款应用验证成果 其落地验证与深度赋能正让超算互联网成为激活产业创新的核心引擎[7] 战略意义与区域影响 - 在“十五五”开局之年 核心节点的上线打响了中部算力应用高地崛起的“第一枪” 该节点成为全国最大算力调度枢纽 有效联动中国乃至全球算力资源与应用需求[4] - 依托规模优势 核心节点将带来人才、数据、应用场景等产业聚集效应 助力区域高质量发展[4] - 我国算力基础设施建设正迈向“建用并重、以用促建”的新阶段 国家超算互联网平台为各类前沿应用场景带来高效普惠的计算服务[5]
国产算力再传喜讯!超算互联网落子破局算力围堵
新浪财经· 2026-02-05 20:18
国家超算互联网核心节点上线 - 国家超算互联网核心节点在郑州上线试运行,该节点由曙光scaleX万卡超集群系统提供算力资源,可对外输出超过3万卡的国产AI算力,是平台接入的全国最大单体国产AI算力资源池 [2][12] - 该节点的上线标志着国家超算互联网迈入规模化新阶段,其运营模式的创新比算力规模突破更能让AI用户直接受益 [2][12] - 国家高性能计算机工程技术研究中心副主任表示,平台旨在为前沿应用场景提供高效普惠的计算服务,目标是让算力像水电一样自由流通、高效易用 [2][12] 行业背景与核心问题 - 国产AI计算产业面临两极分化:一边是AI模型需求爆炸式增长,另一边是大量算力中心资源闲置 [2][12] - 问题的核心在于算力应用的“最后一公里”,即尽管智算中心拥有强大算力,却难以被终端用户直接使用 [2][3][12] - 造成使用困难的主要原因是存在异构技术壁垒,智算中心之间及与用户之间需要进行大量适配调优工作,这给中小用户群体带来了高昂的成本和效率压力,导致其陷入“买不起、用不好”的困境 [4][5][12] 技术解决方案与架构优势 - 曙光scaleX万卡超集群基于AI计算开放架构设计,可全面兼容CUDA等主流软件生态,并支持多品牌国产加速卡的混合部署 [7][14] - 该架构具备灵活的扩展能力,可向十万卡、百万卡规模扩展,并能广泛接入上下游,实现一体化算力统筹调度 [7][14] - 平台通过“算力+应用”一体化服务,正朝着类似京东、淘宝的算力应用商城模式发展,大幅降低了算力成本和使用门槛,为AI创新赋能 [7][14] 平台运营成果与规模 - 截至2025年底,国家超算互联网平台的应用商品已超过7300个 [9][16] - 平台单日处理作业峰值达到103万个 [9][16] - 平台已服务超过100万用户 [9][16] 应用场景与支持能力 - 依托算力统筹调度和万卡超集群的适配优化,该节点可为万亿参数模型训练、高通量推理、AI for Science等大规模AI计算场景提供高效便捷、即插即用的算力支持 [10][17] - 平台已公布邀测计划,提供从百卡级到万卡级规模的应用适配测试,分为轻量试用与大规模测试两大类 [18] - 针对创客、初创团队、大学生等群体,平台提供上千卡时、百G存储、千万Tokens等免费试用资源 [19] 行业影响与展望 - 在算力闲置与需求缺口矛盾突出的背景下,国家超算互联网正通过开放式、平台化的路径寻求破局 [20] - 这一发展对于整个AI计算产业上下游而言是一个值得关注的积极信号 [20]
摩尔线程 突发大消息!
中国基金报· 2025-12-20 21:32
公司技术发布 - 摩尔线程召开首届MUSA开发者大会,展示了以自主MUSA统一架构为核心的全栈技术成果 [2] - 公司揭晓新一代全功能GPU架构“花港”,在计算密度、能效、精度支持、互联能力及图形技术等方面实现全面突破 [3] - 基于“花港”架构,公司公布了两款未来芯片的技术路线:“华山”专注AI训推一体与超大规模智能计算,“庐山”专攻高性能图形渲染 [4] - 公司正式发布夸娥万卡智算集群,具备全精度、全功能通用计算能力,在万卡规模下能实现高效稳定的AI训练与推理 [5] 产品性能与特性 - “花港”GPU架构基于新一代指令集,算力密度提升50%,支持从FP4到FP64的全精度端到端计算,新增MTFP6/MTFP4及混合低精度支持 [3] - “花港”架构集成新一代异步编程模型,并通过自研MTLink高速互联技术,支持十万卡以上规模智算集群扩展 [3] - “花港”架构内置AI生成式渲染架构,增强硬件光线追踪加速引擎,完整支持DirectX 12 Ultimate [3] - 未来芯片“庐山”的AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并显著增强纹理填充、原子访存能力及显存容量 [4] - 夸娥万卡智算集群浮点运算能力达到10Exa-Flops,训练算力利用率在Dense大模型上达60%,在MOE大模型上达40%,有效训练时间占比超过90%,训练线性扩展效率达95% [5] 行业动态与竞争 - 在摩尔线程开发者大会前,中科曙光在光合组织2025人工智能创新技术大会上发布了曙光scaleX万卡超集群系统,这是国产万卡级算力集群首次以真机形式公开亮相 [6] - 中科曙光的scaleX万卡超集群在超节点架构、高速互连网络等方面实现了多项创新突破,部分技术与能力据称已超越英伟达研发路线图的2027年NVL576里程节点 [6] 公司前瞻性布局 - 摩尔线程已发布MT Lambda具身智能仿真训练平台,深度融合物理、渲染与AI三大引擎,构建了开发、仿真、训练的高效统一环境 [6] - 公司推出基于智能SoC芯片“长江”、AI模组MTT E300和夸娥智算集群“端云结合”的MT Robot具身智能解决方案 [6]
摩尔线程,突发大消息!
中国基金报· 2025-12-20 16:54
核心观点 - 摩尔线程在首届MUSA开发者大会上发布了新一代GPU架构“花港”及未来芯片路线,并推出夸娥万卡智算集群,展示了其在全栈GPU技术和AI算力基础设施领域的全面突破 [2][4][6] 新一代GPU架构“花港” - 架构基于公司自主研发的MUSA统一计算架构,是其覆盖芯片到软件的全栈技术体系的战略基石 [4] - 计算性能显著提升:基于新一代指令集,算力密度提升50%,能效大幅优化,并支持从FP4到FP64的全精度端到端计算 [4] - 集成新一代异步编程模型,并通过自研MTLink高速互联技术,支持十万卡以上规模智算集群扩展 [4] - 图形与AI深度融合:内置AI生成式渲染架构,增强硬件光线追踪加速引擎,完整支持DirectX 12 Ultimate [4] 未来芯片技术路线 - 基于“花港”架构,公司公布了两款未来芯片:“华山”与“庐山” [5] - “华山”芯片专注AI训推一体与超大规模智能计算,旨在为万卡级智算集群提供算力支撑,构建下一代“AI工厂” [5] - “庐山”芯片专攻高性能图形渲染,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并显著增强纹理填充、原子访存能力及显存容量 [5] 夸娥万卡智算集群 - 该集群具备全精度、全功能通用计算能力,在万卡规模下能实现高效稳定的AI训练与推理 [7] - 核心性能指标:浮点运算能力达到10 Exa-Flops,训练算力利用率在Dense大模型上达60%,在MOE大模型上达40%,有效训练时间占比超过90%,训练线性扩展效率达95% [7] - 集群与国际主流生态高度兼容,并在多项指标上具备显著能效优势 [7] 行业动态与前瞻布局 - 在摩尔线程发布产品前,中科曙光已于12月18日以真机形式公开亮相其国产万卡级算力集群“scaleX万卡超集群”,据称部分技术与能力已超越英伟达2027年路线图的NVL576里程节点 [8] - 摩尔线程已展开前瞻性布局,包括发布MT Lambda具身智能仿真训练平台,深度融合物理、渲染与AI三大引擎 [8] - 公司推出基于智能SoC芯片“长江”、AI模组MTT E300和夸娥智算集群的“端云结合”MT Robot具身智能解决方案 [8]
摩尔线程,突发大消息!
中国基金报· 2025-12-20 16:50
核心观点 - 摩尔线程在首届MUSA开发者大会上发布了新一代GPU架构“花港”及未来芯片路线图,并推出夸娥万卡智算集群,展示了其在全栈GPU技术和AI算力基础设施方面的进展 [1][2][4] - 公司同时布局具身智能等前沿领域,发布了MT Lambda仿真训练平台和MT Robot解决方案 [5][6] - 行业层面,中科曙光同期展示了国产万卡级算力集群真机,表明国产高端算力集群已进入实际部署和竞争阶段 [5] 技术架构与产品发布 - 公司发布了自主研发的元计算统一架构MUSA,作为覆盖芯片到软件的全栈技术体系战略基石 [2] - 基于MUSA,公司揭晓了新一代全功能GPU架构“花港”,在计算密度、能效、精度和互联等方面实现突破 [2] - “花港”架构核心特性包括:算力密度提升50%,支持FP4到FP64全精度计算,新增MTFP6/MTFP4低精度支持 [2] - 架构集成新一代异步编程模型,并通过自研MTLink技术支持十万卡以上规模智算集群扩展 [2] - 架构内置AI生成式渲染,增强硬件光线追踪,完整支持DirectX 12 Ultimate,实现图形与AI计算协同 [2] 未来芯片路线图 - 基于“花港”架构,公司公布了两款未来芯片:“华山”和“庐山” [3] - “华山”芯片专注AI训推一体与超大规模智能计算,旨在为万卡级智算集群提供算力底座 [3] - “庐山”芯片专攻高性能图形渲染,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并增强纹理填充和显存容量 [3] 算力集群发布 - 公司正式发布了夸娥万卡智算集群,具备全精度、全功能通用计算能力 [4] - 该集群在万卡规模下可实现高效稳定的AI训练与推理 [4] - 集群核心性能指标包括:浮点运算能力达10 Exa-Flops,在Dense大模型上训练算力利用率达60%,在MOE大模型上达40%,有效训练时间占比超90%,训练线性扩展效率达95% [4] - 集群与国际主流生态高度兼容,并具备显著能效优势 [4] - 值得注意的是,公司未在现场展示上述产品实物 [5] 行业动态与竞争 - 在中科曙光的光合组织2025大会上,曙光scaleX万卡超集群系统以真机形式公开亮相,这是国产万卡级算力集群首次真机亮相 [5] - 曙光scaleX在超节点架构、高速互连网络、存储性能优化、系统管理调度等方面实现多项创新突破 [5] - 曙光部分技术与能力据称已超越英伟达研发路线图的2027年NVL576里程节点 [5] 前瞻性业务布局 - 公司发布了MT Lambda具身智能仿真训练平台,深度融合物理、渲染与AI三大引擎,构建开发、仿真、训练的统一环境 [5] - 公司推出了MT Robot具身智能解决方案,该方案基于智能SoC芯片“长江”、AI模组MTT E300和夸娥智算集群,实现“端云结合” [6]
算力内卷时代,“开放架构”万卡超集群为何成刚需?
犀牛财经· 2025-12-20 12:47
行业背景与需求 - AI大模型研发门槛极高,需要庞大的算力支持,例如打造ChatGPT级别的大模型至少需要1万枚英伟达H100加速卡[1] - 随着ChatGPT、文生视频等AI应用普及,各行业算力需求呈指数级增长,IDC预测到2028年中国智能算力需求将达到2781 EFLOPS,年均增长率高达46.2%[1] - 传统计算集群在规模扩大到数千张卡后,会遇到通信延迟高、并行效率低、能耗成本急剧攀升等难以逾越的瓶颈[1][6] - 截至2025年6月,中国生成式AI用户规模达5.15亿人,较2024年12月增长2.66亿人,用户规模半年翻番,普及率达36.5%,其中超过三分之二(67.7%)的用户每天都会使用AI生成[6] 公司产品发布 - 2025年12月18日,在光合组织2025人工智能创新技术大会(HAIC2025)上,中科曙光发布了曙光scaleX万卡超集群系统[3] - 该系统是国产万卡级超集群真机的首秀,由16个超节点通过自主研发高速网络连接而成,可支持10240张AI加速卡协同工作[5] - 该系统面向万亿参数大模型、科学智能等复杂任务场景打造,在超节点架构、高速互连网络、存储性能优化、系统管理调度等方面实现多项创新突破,部分技术与能力已超越海外将于2027年推出的NVL576[3] 产品技术优势 - **超高密度与能效**:全球首创单机柜级640卡超节点,采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04,总算力规模超5 EFlops[6] - **高速互连网络**:采用自主研发的scaleFabric网络,基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,实现400Gb/s超高带宽、低于1微秒端侧通信延迟,相比传统IB网络性能提升2.33倍,同时网络总体成本降低30%,并可轻松将集群规模扩展至10万卡以上[9] - **系统级协同优化**:通过“超级隧道”、AI数据加速等设计,实现芯片级、系统级到应用级的三级数据传输协同优化,可将AI加速卡资源利用率提高55%[9] - **智能运维与调度**:通过物理集群数字孪生实现可视化智能管理,智能化运维平台支撑集群长期可用性达99.99%,智能调度引擎可管理万级节点、服务十万级用户,支持每秒万级作业调度[9] 开放架构与生态战略 - scaleX万卡超集群作为“AI计算开放架构”的最新成果,可支持多品牌加速卡以及主流计算生态,并实现了对400+主流大模型、世界模型的适配优化[10] - “AI计算开放架构”由中科曙光协同20多家AI产业链企业共同推出,旨在共享关键共性技术能力,通过系统工程思维推进智算集群创新[10] - 这种“类安卓”的开放模式给予用户更大选择权,避免单一厂商技术锁定,同时积极兼容主流AI开发框架,推动国产软硬件生态适配,降低了开发者和应用迁移门槛[12] - 开放架构有助于解决芯片与基础软件协同、模型-硬件适配优化等难题,破解“硬件墙”“生态墙”壁垒,让算力资源更加“普惠化”[12] 产品意义与价值 - 曙光万卡超集群的发布标志着国产大规模算力集群技术进入新阶段[5] - 其价值体现了从硬件堆叠到系统级协同的范式转变,通过开放架构和软硬一体化设计,让大规模算力从“昂贵奢侈品”逐渐走向“可规模化部署的公共服务”[13] - 该产品为国内AI产业生态的自主演进提供了关键支撑,其强大性能将推动大模型训练与推理、科学智能、数字孪生与智能制造、金融赋能等应用场景的创新[12][13]