Workflow
中科曙光(603019)
icon
搜索文档
算力内卷时代,“开放架构”万卡超集群为何成刚需?
犀牛财经· 2025-12-20 12:47
行业背景与需求 - AI大模型研发门槛极高,需要庞大的算力支持,例如打造ChatGPT级别的大模型至少需要1万枚英伟达H100加速卡[1] - 随着ChatGPT、文生视频等AI应用普及,各行业算力需求呈指数级增长,IDC预测到2028年中国智能算力需求将达到2781 EFLOPS,年均增长率高达46.2%[1] - 传统计算集群在规模扩大到数千张卡后,会遇到通信延迟高、并行效率低、能耗成本急剧攀升等难以逾越的瓶颈[1][6] - 截至2025年6月,中国生成式AI用户规模达5.15亿人,较2024年12月增长2.66亿人,用户规模半年翻番,普及率达36.5%,其中超过三分之二(67.7%)的用户每天都会使用AI生成[6] 公司产品发布 - 2025年12月18日,在光合组织2025人工智能创新技术大会(HAIC2025)上,中科曙光发布了曙光scaleX万卡超集群系统[3] - 该系统是国产万卡级超集群真机的首秀,由16个超节点通过自主研发高速网络连接而成,可支持10240张AI加速卡协同工作[5] - 该系统面向万亿参数大模型、科学智能等复杂任务场景打造,在超节点架构、高速互连网络、存储性能优化、系统管理调度等方面实现多项创新突破,部分技术与能力已超越海外将于2027年推出的NVL576[3] 产品技术优势 - **超高密度与能效**:全球首创单机柜级640卡超节点,采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04,总算力规模超5 EFlops[6] - **高速互连网络**:采用自主研发的scaleFabric网络,基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,实现400Gb/s超高带宽、低于1微秒端侧通信延迟,相比传统IB网络性能提升2.33倍,同时网络总体成本降低30%,并可轻松将集群规模扩展至10万卡以上[9] - **系统级协同优化**:通过“超级隧道”、AI数据加速等设计,实现芯片级、系统级到应用级的三级数据传输协同优化,可将AI加速卡资源利用率提高55%[9] - **智能运维与调度**:通过物理集群数字孪生实现可视化智能管理,智能化运维平台支撑集群长期可用性达99.99%,智能调度引擎可管理万级节点、服务十万级用户,支持每秒万级作业调度[9] 开放架构与生态战略 - scaleX万卡超集群作为“AI计算开放架构”的最新成果,可支持多品牌加速卡以及主流计算生态,并实现了对400+主流大模型、世界模型的适配优化[10] - “AI计算开放架构”由中科曙光协同20多家AI产业链企业共同推出,旨在共享关键共性技术能力,通过系统工程思维推进智算集群创新[10] - 这种“类安卓”的开放模式给予用户更大选择权,避免单一厂商技术锁定,同时积极兼容主流AI开发框架,推动国产软硬件生态适配,降低了开发者和应用迁移门槛[12] - 开放架构有助于解决芯片与基础软件协同、模型-硬件适配优化等难题,破解“硬件墙”“生态墙”壁垒,让算力资源更加“普惠化”[12] 产品意义与价值 - 曙光万卡超集群的发布标志着国产大规模算力集群技术进入新阶段[5] - 其价值体现了从硬件堆叠到系统级协同的范式转变,通过开放架构和软硬一体化设计,让大规模算力从“昂贵奢侈品”逐渐走向“可规模化部署的公共服务”[13] - 该产品为国内AI产业生态的自主演进提供了关键支撑,其强大性能将推动大模型训练与推理、科学智能、数字孪生与智能制造、金融赋能等应用场景的创新[12][13]
研判2025!中国存储服务器行业政策、产业链全景、发展现状、企业布局及未来发展趋势分析:算力基建提速扩容,存储服务器赛道前景广阔[图]
产业信息网· 2025-12-20 11:31
文章核心观点 - 中国存储服务器行业正处在AI需求爆发与国产化替代双轮驱动的高速发展阶段,市场规模快速增长,技术向高性能与绿色化演进,市场格局呈现头部主导、生态协同的特点,未来将向场景化定制与服务模式创新方向进阶 [1][6][9][12] 行业定义与分类 - 存储服务器是一种以数据存储和管理为核心功能的专用服务器,整合硬件与软件系统,提供高可靠、高扩展性的数据存储解决方案 [2] - 与通用服务器相比,存储服务器资源分配偏向存储功能,通常配备更多硬盘插槽、支持大容量存储介质,并搭载专业存储协议和冗余机制,优先保障数据安全与存取效率 [3] - 存储服务器可按架构分为直连式、网络附加式、存储区域网络式和分布式;按存储介质分为机械硬盘、固态硬盘及混合存储;按应用场景可分为企业级、监控级、云存储服务器等 [4][5] 行业发展驱动因素 - **政策支持**:国家相继出台《新产业标准化领航工程实施方案》、《算力基础设施高质量发展行动计划》等一系列重磅政策,从技术标准、基建建设、产业生态、绿色低碳等多维度提供支持 [1][6] - **上游技术突破**:存储芯片领域,长江存储凭借Xtacking架构使NAND闪存全球市场份额提升至8.1%;长鑫存储攻克14nm制程,其DDR5内存芯片2025年全球市占率达10.1%,完善了国产产业链 [7] - **下游需求旺盛**:应用覆盖公共服务、互联网、金融等多领域,算力基础设施升级打开增长空间,2024年全国算力总规模达280 EFLOPS,智能算力规模达90 EFLOPS,预计2025年将分别突破300 EFLOPS和100 EFLOPS [1][8][9] 市场规模与现状 - **整体服务器市场**:2024年中国服务器市场规模达2492.1亿元,同比增长41.3%,预计2025年将增至2823.5亿元,同比增长13.3% [9] - **存储服务器市场**:2024年中国存储服务器市场规模达438.7亿元,预计2025年将增至521.9亿元,持续领跑整体服务器市场增速 [1][9] - **技术发展现状**:分布式存储架构成为市场主流,NVMeoF协议、全闪存阵列快速普及,PCIe 6.0接口搭载率已达40%,液冷技术的规模化应用将数据中心PUE降至1.1以下 [9] 产业链分析 - **上游**:聚焦CPU、GPU、存储芯片、PCB等核心零部件与软件供应,技术壁垒高,本土企业在性价比、定制化及政策支持下逐步突破高端领域 [6] - **中游**:为服务器制造与集成,厂商分为OEM品牌、ODM原始设计等模式,是连接上下游的核心纽带,技术推动从“组装集成”向“核心技术自主”转型 [6] - **下游**:覆盖互联网、云计算、金融、政府、电信等多样化应用市场,需求驱动服务器从“标准化”向“场景化定制”升级 [6] - **存储芯片市场**:2024年中国存储芯片市场规模达4267亿元,预计2025年将攀升至4580亿元 [7] 企业竞争格局 - 行业呈现“头部主导、ODM定制、特色深耕”的立体竞争格局,华为、浪潮信息等头部厂商占据国内超六成主流市场 [10] - **重点企业布局**: - 华为以自研芯片与多协议兼容的OceanStor系列中标国有银行核心项目 [10] - 浪潮信息以300余项液冷专利实现PUE低于1.1,全力适配AI算力需求 [10] - 长江存储基于Xtacking架构的NAND闪存已为阿里、腾讯云供货 [10] - 长鑫存储的DDR5芯片良率突破80%,已适配主流服务器 [10] - 易华录在全国建设30余个数据湖,主攻政务金融冷数据存储 [10] - 江波龙推出小尺寸高可靠性存储产品,其企业级SSD获字节跳动AI数据中心批量采购 [10] 行业发展趋势 - **技术迭代:高性能与绿色化双线并行**:全闪存阵列、分布式存储成主流,NVMeoF协议和新一代PCIe接口优化数据传输效率,液冷等低碳技术规模化落地,存算一体、软件定义存储等架构融合突破传统性能瓶颈 [12] - **市场格局:国产化替代与生态协同深化**:从存储芯片、控制器到操作系统的全产业链自主可控能力持续增强,市场竞争从单一产品比拼转向“存储+计算+网络”一体化解决方案竞争 [13] - **需求升级:场景化定制与服务模式创新**:AI大模型训练、自动驾驶等场景催生定制化产品,存储即服务模式逐步普及,数据安全合规要求推动加密存储等增值服务发展,行业向“产品+服务”综合模式转型 [14]
计算产业反内卷第一枪打响!
国芯网· 2025-12-19 22:12
公司战略调整 - 中科曙光宣布将于2026年陆续退出服务器、个人计算机和工控机等终端市场,未来将聚焦核心技术研发与产品创新,服务生态伙伴 [1][2] - 该决定旨在重塑产业格局,直指长期困扰产业的低效内卷式竞争,公司认为严重内卷且无序的市场最终会拖累整个中国产业链的进步 [1][2] - 公司此举意味着将让渡出多个稳固的业务市场及可观的业绩营收,是一个大胆且成本高昂的决定 [2] 战略愿景与产业定位 - 公司的根本初衷是推动产业从抵消竞争的内耗转向协作,推动合作伙伴在细分赛道精耕细作,为用户提供更多价值,从而提升中国计算产业的全球地位 [2] - 公司提出建设“开放、共享、分工、协作、团结、共赢”的产业新格局愿景,认为每个企业在细分领域做到最好,国家产业链就能做到最好 [2] - 公司聚焦的核心技术领域是其擅长的高性能计算、存储和系统化的计算服务 [4] 技术实力与产品突破 - 公司在光合大会上发布并展出了国产万卡级AI集群系统“scaleX万卡超集群”,单机柜算力密度提升20倍,PUE值低至1.04 [4] - 该系统可实现10240块AI加速卡部署,总算力规模超5EFlops,是全球范围内首个落地的万卡级超节点真机,面向万亿参数大模型等复杂场景 [4] - 系统采用自研的“曙光scaleFabric”高速网络,基于国内首款自主研发的400G类InfiniBand原生RDMA网卡与交换芯片,以及自研的112G PAM4高速SerDes IP,打破了相关领域的国际垄断 [4] - 通过存储技术的三级协同设计与“AI数据工厂”全流程加速,将AI加速卡资源利用率提高55% [4] - 集群管理基于数字孪生等技术,实现99.99%超大规模集群长期可用性,推动运维模式变革 [5] 产业生态与协作背景 - 光合组织自2021年4月成立至今,已聚集超过6000家合作伙伴,建立了28个生态适配中心和25个区域行业分会,完成数万个软硬件解决方案 [6] - 产业规模快速壮大后,出现了市场与资源扎堆问题,合理化分工协作、减少恶性低质竞争已成为组织成员的共同课题 [6] - 在HAIC 2025上,商汤科技、中科曙光、麒麟软件等龙头企业达成多项战略合作,密集发布了超节点、AI终端等50多项光合生态人工智能创新成果,并启动了多项协同创新计划 [7] - “开放”已从企业可选项转变为产业发展共识,阿里、字节等行业巨头也纷纷投身开放发展路线,以凝聚行业技术力并反推自身创新 [8]
超节点互连技术落地 国产万卡超集群首次真机亮相
21世纪经济报道· 2025-12-19 21:32
行业趋势:算力需求与架构演进 - 主流大模型参数已从千亿级跃升至万亿级规模,驱动算力需求持续爆发式增长,EFLOPS算力级别、万卡级别高性能集群成为大模型标配 [2] - 为满足苛刻的算力要求,行业正从追求通用性和灵活性的解耦设计,转向通过牺牲部分通用性以换取性能极致优化的新架构 [3] - 构建大规模智算集群的主流架构思路是:先通过Scale-up策略将数百张加速卡集成为内部高速互联的超节点,再将这些超节点作为标准单元进行Scale-out横向扩展,最终构筑万卡规模集群 [6] - 行业目标持续升级,从千卡、万卡集群向未来的几十万卡甚至百万卡集群迈进,高速互连的重要性愈加凸显 [7] 产品创新:超节点与万卡集群 - 超节点因密度和性能优势,正成为新建万卡集群的首选架构之一,其将大量AI加速卡以超高密度集成在单个或少数几个机柜内,通过内部高速总线或专用互连网络,实现“物理多机、逻辑单机”的新型计算单元 [3] - 中科曙光于2025年11月发布全球首个单机柜级640卡超节点——scaleX640,这是全球已公开的在单个机柜内集成加速卡数量最多的超节点产品 [3] - scaleX640采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04 [1] - 中科曙光于2025年12月18日发布并展出了scaleX万卡超集群,由16个scaleX640超节点通过scaleFabric高速网络互连而成,实现10240块AI加速卡部署,总算力规模超5EFlops,这是国产万卡级AI集群系统首次以真机形式亮相 [4][5] - 华为昇腾384超节点真机也在2025年世界人工智能大会期间首秀,标志着国产算力“大基建”正从图纸走进现实 [1] 技术突破:高速互连与网络 - 在单机柜内把芯片互连规模做大,可以让芯片之间的互连更加可靠、高效,因为柜内互联采用高效低成本的电信号,而柜间则依赖高功耗、高成本的光模块 [3] - 在超节点间,曙光scaleFabric网络基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,可实现400Gb/s超高带宽、低于1微秒端侧通信延迟,并可将超集群规模扩展至10万卡以上 [7] - 相比传统IB网络,scaleFabric网络性能提升2.33倍,同时网络总体成本降低30% [7] - 自研原生RDMA高速网络至关重要,其角色类似于英伟达生态中基于Mellanox技术的InfiniBand网络,承担着节点间Scale-Out的重任 [7] 挑战与产业链影响 - 超节点面临海量芯片协同工作带来的系统散热压力、多芯片间光/铜混合互连方案引发的稳定性问题,以及多零部件长期运行下的可靠性隐患等复杂系统性挑战 [8] - 解决上述问题需要服务器厂商与上游各环节厂商深度协同,探索全局最优解决方案,这使得整机环节在产业链中的话语权显著提升 [8] - 当智算集群规模扩展至万卡乃至十万卡级别,集群设计与建设面临可扩展性、可靠性与能效三大核心挑战 [8] - 为保证可扩展性,必须构建具备高带宽、低延迟的强大互连网络,确保集群规模增长时计算效率不会出现断崖式下降,并实现大规模组网下的有效管理 [8] - 可靠性方面,海量设备数量累加会遵循“木桶效应”,即便单点可靠性极高,整体系统的无故障运行时间也会被指数级拉低 [8] - 最紧迫的是能耗与能效问题,随着单个算力中心体量从MW级向未来GW级演进,传统的供电技术已难以为继,必须实现供电技术的根本性突破,并辅以先进的软件管理调度 [8]
超节点互连技术落地,国产万卡超集群首次真机亮相
21世纪经济报道· 2025-12-19 21:24
行业趋势:AI算力需求爆发与集群规模演进 - 主流大模型参数从千亿级跃升至万亿级规模,算力需求持续爆发式增长,EFLOPS算力级别、万卡级别高性能集群成为大模型标配[1] - 超节点因密度和性能优势,正成为新建万卡集群的首选架构之一[1] - 行业构建大规模智算集群的主流架构思路是:先通过Scale-up策略将数百张加速卡集成为超节点,再将这些超节点作为标准单元进行Scale-out横向扩展,最终构筑万卡规模[5] - 集群规模持续扩大,从千卡、万卡发展到未来的几十万甚至百万卡,国际上Meta、微软、OpenAI等AI巨头已陆续宣布或完成10万卡集群建设[6][7] 技术突破:国产万卡级AI集群真机亮相 - 中科曙光在HAIC2025大会上发布并展出了scaleX万卡超集群,这是国产万卡级AI集群系统首次以真机形式亮相[1] - 此前国内万卡集群项目多以分散服务器、技术蓝图或在建工程形式存在,例如三大运营商已投产的万卡集群多为分散部署的标准服务器,物理形态并非一体化单元[1] - 同样在2025年,华为昇腾384超节点真机也在世界人工智能大会期间首秀,标志着国产算力“大基建”正从图纸走进现实[1] 产品核心:scaleX万卡超集群与scaleX640超节点 - scaleX万卡超集群由16个曙光scaleX640超节点通过scaleFabric高速网络互连而成,可实现10240块AI加速卡部署,总算力规模超5EFlops[1][3] - scaleX640是全球首个单机柜级640卡超节点,采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04[1] - scaleX640是全球已公开的、在单个机柜内集成加速卡数量最多的超节点产品[2] 技术架构:超节点的设计逻辑与优势 - 超节点是一种Scale-up纵向扩展解决方案,将大量AI加速卡以超高密度集成在单个或少数几个机柜内,通过内部高速总线或专用互连网络,实现“物理多机、逻辑单机”的新型计算单元[2] - 当前算法对算力的苛刻要求,迫使业界牺牲部分通用性以换取性能的极致优化,超节点应此需求而生[2] - 在单机柜内把芯片互连规模做大,可以让芯片之间的互连更加可靠、高效,因为柜内互联采用高效低成本的电信号,而柜间依赖高功耗、高成本的光模块[2] - 中科曙光、华为Atlas超节点、英伟达NVL72等产品均已应用超节点架构[2] 关键挑战:大规模集群的系统性难题 - 当智算集群规模扩展至万卡乃至十万卡级别,集群设计与建设面临可扩展性、可靠性与能效三大核心挑战[8] - 可扩展性挑战:必须构建具备高带宽、低延迟的强大互连网络,确保集群规模增长时计算效率不会出现断崖式下降,并实现大规模组网下的有效管理[8] - 可靠性挑战:海量设备数量累加遵循“木桶效应”,即便单点可靠性极高,整体系统的无故障运行时间也会被指数级拉低[8] - 能耗与能效挑战:随着单个算力中心体量从MW级向未来GW级演进,传统供电技术已难以为继,必须实现供电技术的根本性突破,并辅以先进的软件管理调度[8] - 超节点面临复杂的系统性挑战,包括海量芯片协同带来的系统散热压力、光铜混合互连方案引发的稳定性问题、多零部件长期运行下的可靠性隐患,这类问题需要服务器厂商与上游各环节深度协同解决[7] 网络互连:高速互连技术的重要性与突破 - 随着集群规模从千卡、万卡向几十万卡发展,高速互连的重要性愈加凸显[7] - 在超节点间,曙光scaleFabric网络基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,可实现400Gb/s超高带宽、低于1微秒端侧通信延迟,并可将超集群规模扩展至10万卡以上[7] - scaleFabric网络相比传统IB网络性能提升2.33倍,同时网络总体成本降低30%[7] - 自研原生RDMA高速网络至关重要,英伟达生态体系中的“三驾马车”包括:核心GPU提供算力、NVLink负责节点内超高速互联、基于Mellanox技术的InfiniBand网络承担节点间Scale-Out重任[7]
中科曙光与商汤科技、大晓机器人合作签约
北京商报· 2025-12-19 20:21
合作事件概述 - 中科曙光于12月19日宣布与商汤科技、大晓机器人正式达成战略合作[1] 合作内容与目标 - 三方将围绕国产化人工智能基础设施与具身智能关键技术方向展开合作[1] - 合作将依托三方各自的技术与产业优势[1] - 三方将协同推动软硬一体的“算力基础设施+世界模型+具身智能”生态建设[1] - 合作旨在进一步加速AI能力向物理世界的延展[1]
国产算力的开放时刻:超节点迈入万卡纪元
傅里叶的猫· 2025-12-19 18:11
文章核心观点 - 中国AI算力基础设施发展迎来标志性拐点,中科曙光推出首个国产万卡级AI超集群scaleX万卡超节点真机,标志着中国超节点真正迈入万卡纪元[1][3] - 为应对英伟达技术依赖与出口限制,中国AI算力产业探索出两条主要发展路径:以华为为代表的封闭全栈自研路线,和以曙光、浪潮、阿里为代表的开放协同路线[4][8] - 开放路线的推进促进了国产AI加速卡的大规模落地应用,使中国AI算力体系具备了“多芯片共存”的自我造血能力,不再依附于单一生态[7][9] - 2025年是中国AI算力体系发展的“拐点之年”,产业发展逻辑从单一性能比拼转向注重高效协同与生态共生,未来在于两条路线的共存与平衡[11] 超节点技术发展背景与转折 - 三年前,国内AI算力体系高度依赖英伟达的GPU、NVLink和CUDA生态[4] - 英伟达高端GPU出口限制、CUDA生态不开放、NVLink技术不授权,迫使国内厂商寻求自主算力体系解决方案[4] - 超节点被视为下一代智能计算核心单元,能整合上万张AI加速卡为统一逻辑节点,将通信时延压缩至微秒级,突破传统集群通信瓶颈[5] 封闭全栈自研路线(以华为为代表) - 华为采用“全栈自研”路径,涵盖底层芯片、互联技术到上层框架软件[4] - 华为昇腾384超节点延续纵向一体化思路,全系统自研,实现高性能:通信延迟仅2.1微秒,单机柜算力达300PFlops,PUE稳定在1.1左右[4] - 该路线选择“封闭自洽”,资源效率与技术把控力强,但生态兼容性受限,产业协同推进速度较慢[4] - 华为CM384超节点已出货多套,在贵州数据中心投入运营[9] 开放协同路线(以曙光、浪潮、阿里为代表) - 曙光、浪潮、阿里在2025年下半年先后推出超节点产品,以“开放架构”为核心,致力于打造中国AI算力底层基础[5][6] - **浪潮“元脑SD200”**:主打多品牌GPU异构计算,创下8.9毫秒生成token的纪录[6],已在多个模型推理平台商用,为DeepSeek、Kimi等大模型提供算力支撑[9] - **阿里“磐久128”**:依靠开放协议整合不同互联标准,搭建出“云端超节点”[6],在云端承担多模型协作的基础设施角色[9] - **中科曙光“scaleX万卡超节点”**:由16个scaleX640超节点互联组成,部署10240张AI加速卡,总算力突破5EFlops[7],搭载自研scaleFabric高速网络,带宽达400Gb/s,端侧延迟不到1微秒[7],采用浸没相变液冷技术,单机柜PUE压低至1.04[7],产品不绑定单一芯片厂商,能兼容寒武纪、壁仞、登临等多个品牌加速卡,已适配400多个主流大模型和AI框架[7],已落地上海、杭州等地智算中心,并被纳入国家级算力调度工程采购清单[9] 去英伟达化与生态构建 - 美国自2023年起多次收紧对华高性能GPU(如A100、H100)出口限制,英伟达超节点NVL72也在限制之内,安全风险凸显,加速了中国AI产业寻找替代方案[8] - 核心目标是构建具备可替代性的完整算力生态系统,而非简单复制英伟达[8] - 开放路线带动了国产芯片大规模落地:曙光scaleX体系已完成对壁仞BR系列、登临、寒武纪MLU等多款国产加速卡的适配;浪潮和阿里也为本土GPU预置驱动环境[9] - 这标志着中国AI算力基础设施不再依附于单一英伟达生态,形成了以中国厂商为核心的开放协作系统,具备了自我造血能力[9] 产业发展趋势与未来 - 2025年是中国AI算力体系发展的“拐点之年”[11] - 封闭路线占据性能高地,在特定场景中具备不可替代的价值;开放路线贴合产业发展现实需求,推动了算力普惠与生态繁荣[11] - 产业发展逻辑发生转变:从单一维度性能比拼转向注重不同芯片的高效协同;从不同体系间的孤立较量转向多元生态下的共生共赢[11] - 中国AI算力的未来很可能在于封闭与开放两条路线的共存与平衡之中[11]
AI下一程:从“单点突围”到“生态共进”
环球时报· 2025-12-19 14:13
中国AI产业发展路径与开放计算架构 - 单纯依靠堆规模的传统模式已不足以维持AI高速迭代,协同与融合成为推动中国AI技术进步与产业升级的关键路径[2] - 中国在国家战略层面推动“AI+”,是对构建新型生产关系和发展新质生产力的全方位谋划,但发展面临“性能墙”与“生态墙”双重制约,包括高端算力供给不足、软硬件适配不畅、技术标准不一、应用成本高昂等问题[2] - 光合组织选择打造AI计算开放架构,旨在结合产业链企业优势,从技术“单点突围”走向产业“生态共进”,该架构不排斥国外产品,以降低开发门槛、加速应用落地和提升系统性能[3] 中国智算产业面临的挑战与战略选择 - 中国智算产业面临两大挑战:突破算力瓶颈(如高端AI芯片禁运、先进制程工艺瓶颈、EDA设计软件禁售)和实现算力普惠(如封闭系统售价高昂、自主软硬件生态不成熟、算力资源供需错配)[3] - 针对挑战的解决路径分为封闭系统(如苹果操作系统)与开放系统(如安卓操作系统)两类,光合组织结合中国实际情况选择了由大量企业分工合作的开放系统路径[3] scaleX万卡超集群的技术突破与优势 - scaleX万卡超集群是面向万亿参数大模型、科学智能等复杂任务场景打造的大规模智能算力基础设施方案,在超节点架构、高速互联网络、存储性能优化、系统管理调度等方面实现多项创新突破[4] - 该集群单机柜算力密度提升20倍,部分技术与能力已超越海外同类产品,硬件上可支持多品牌AI加速卡,软件兼容主流计算生态,极大降低了智算集群的整体拥有成本[4] - AI超集群采用高速总线和统一内存,将千万个GPU连接在一起像一块芯片一样工作,统一进行内存存取,调度算力密度非常高,从而极大提升实际算力,克服了传统集群因通信瓶颈导致的运算效率下降问题[5] AI技术发展的未来方向 - 单纯依靠堆叠算力已逐步逼近AI的效率极限,未来发展需要底层技术创新[4] - 当前多模态模型普遍存在“缝合式融合”短板,难以形成对真实物理世界的系统性理解,制约了其在更复杂真实场景中的可靠应用[4] - 未来AI总体算力发展可概括为“两超”(超节点和超高密度)、“一开放”(开放生态)、“两融合”(“超算、智算、通算”融合以及“算、存、网、电、冷、管、软”融合)[5] 产业合作与“AI+”应用落地 - 商汤科技、大晓机器人与中科曙光达成战略合作,共同推进世界模型在国产算力平台上的高效训练与推理[5] - 大晓机器人发布的新一代“开悟”世界模型(Kairos 3.0)支持多视角、长时序、复杂动态环境下的场景建模与交互生成,并已与scaleX万卡超集群等产品完成深度适配[5] - “AI+”已渗透到众多行业,例如地理科学领域的多模态语言大模型“坤元”用于回答全球变化和区域可持续发展问题,国产新能源汽车的设计和测试也依赖大量AI算力[6] - HAIC2025大会展示了“AI+交通”、“AI+医卫”、“AI+安全”、“AI+工业”、“AI+能源”、“AI+软件服务”等成果展区,具体案例如甘肃省利用车纹识别大模型打造的“5G+智慧公路”,协助处理事故定责、道路流量预测等任务[6]
人形占比更高的机器人ETF易方达(159530)高开涨近2%,大晓机器人连发三大技术成果,携手商汤、中科曙光共建具身智能生态
新浪财经· 2025-12-19 11:11
市场表现与资金动向 - 截至2025年12月19日09:55,国证机器人产业指数强势上涨1.60%,机器人ETF易方达(159530)上涨1.64%,成交额达1.66亿元 [1] - 截至12月18日,机器人ETF易方达本月以来规模增长2.94亿元,近1周份额增长3800.00万份 [1] - 机器人ETF易方达最新资金净流入2126.10万元,近5个交易日内有3日资金净流入,合计净流入1.73亿元 [1] 行业动态与技术创新 - 12月18日,大晓机器人发布行业首创的ACE具身研发范式、首个开源且商业应用的开悟世界模型3.0(Kairos 3.0)以及具身超级大脑模组A1,旨在构建全链自主可控的产业生态 [1] - 同日,商汤科技、大晓机器人与中科曙光达成战略合作,将围绕国产化人工智能基础设施与具身智能关键技术,协同推动“算力基础设施+世界模型+具身智能”生态建设 [1] 行业产量与景气度 - 2025年全年工业机器人产量有望突破70万台,11月单月产量约为7.02万台,同比增长20.60% [2] - 大规模设备更新政策拉动效应明显,叠加制造业数字化、智能化转型,推动工业机器人产量持续增长 [2] - 下游需求增长逻辑清晰,国内开工端利好不断释放,叠加“十五五”规划的政策导向,行业景气度有望延续回暖态势 [2] 产品结构与特点 - 机器人ETF易方达(159530)追踪国证机器人产业指数,选取业务范畴属于机器人产业的上市公司为样本 [3] - 该指数人形机器人占比高达77%,高于同类指数的64%,或更受益于未来人形机器人产业趋势 [3]
中科曙光展出万卡超集群,部分能力超英伟达NVL576
观察者网· 2025-12-19 11:04
产品发布与核心规格 - 中科曙光在光合组织2025人工智能创新大会上发布并展出了全球领先的大规模智能计算系统——scaleX万卡超集群,这是国产万卡级AI集群系统首次以真机形式亮相 [1] - scaleX万卡超集群由16个scaleX640超节点通过scaleFabric高速网络互连而成,可实现10240块AI加速卡部署,总算力规模超5EFlops [3] - 该系统是全球首个单机柜级640卡超节点,采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04 [3] 核心技术优势 - 优势一:全球首创单机柜级640卡超节点,采用浸没相变液冷技术,PUE值低至1.04 [3] - 优势二:采用自主研发的scaleFabric网络,基于国内首款400G类InfiniBand原生RDMA网卡与交换芯片,实现400Gb/s超高带宽、低于1微秒端侧通信延迟,相比传统IB网络性能提升2.33倍,同时网络总体成本降低30% [4] - 优势三:通过“超级隧道”、AI数据加速等设计实现存、算、传紧耦合深度优化,可将AI加速卡资源利用率提高55% [4] - 优势四:通过超集群数字孪生与智能调度实现智能管理,智能化运维平台可支撑集群长期可用性达99.99%,智能调度引擎支持每秒万级作业调度 [4] 产品定位与性能对标 - scaleX万卡超集群是面向万亿参数大模型、科学智能等复杂任务场景打造的大规模智能算力基础设施方案 [3] - 该系统在超节点架构、高速互连网络等方面实现了多项创新突破,部分技术与能力已超越海外同类产品研发路线图的2027年NVL576里程节点 [3] - scaleFabric网络可将超集群规模轻松扩展至10万卡以上 [4] 生态兼容与应用场景 - scaleX万卡超集群作为“AI计算开放架构”最新成果,可支持多品牌加速卡以及主流计算生态,并实现400+主流大模型、世界模型等适配优化 [6] - 该超集群的实际应用可覆盖大模型训练、金融风控、地质能源勘探及科学智能等多元场景 [6] 行业合作动态 - 在本次大会上,商汤科技、中科曙光、大晓无限机器人、麒麟软件、华大九天、海光信息等企业达成多项战略合作 [6] - 合作将围绕AI算力软硬件系统优化、世界模型与具身智能应用创新等开启跨层开放协作 [6]