算力内卷时代,“开放架构”万卡超集群为何成刚需?

行业背景与需求 - AI大模型研发门槛极高,需要庞大的算力支持,例如打造ChatGPT级别的大模型至少需要1万枚英伟达H100加速卡[1] - 随着ChatGPT、文生视频等AI应用普及,各行业算力需求呈指数级增长,IDC预测到2028年中国智能算力需求将达到2781 EFLOPS,年均增长率高达46.2%[1] - 传统计算集群在规模扩大到数千张卡后,会遇到通信延迟高、并行效率低、能耗成本急剧攀升等难以逾越的瓶颈[1][6] - 截至2025年6月,中国生成式AI用户规模达5.15亿人,较2024年12月增长2.66亿人,用户规模半年翻番,普及率达36.5%,其中超过三分之二(67.7%)的用户每天都会使用AI生成[6] 公司产品发布 - 2025年12月18日,在光合组织2025人工智能创新技术大会(HAIC2025)上,中科曙光发布了曙光scaleX万卡超集群系统[3] - 该系统是国产万卡级超集群真机的首秀,由16个超节点通过自主研发高速网络连接而成,可支持10240张AI加速卡协同工作[5] - 该系统面向万亿参数大模型、科学智能等复杂任务场景打造,在超节点架构、高速互连网络、存储性能优化、系统管理调度等方面实现多项创新突破,部分技术与能力已超越海外将于2027年推出的NVL576[3] 产品技术优势 - 超高密度与能效:全球首创单机柜级640卡超节点,采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04,总算力规模超5 EFlops[6] - 高速互连网络:采用自主研发的scaleFabric网络,基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,实现400Gb/s超高带宽、低于1微秒端侧通信延迟,相比传统IB网络性能提升2.33倍,同时网络总体成本降低30%,并可轻松将集群规模扩展至10万卡以上[9] - 系统级协同优化:通过“超级隧道”、AI数据加速等设计,实现芯片级、系统级到应用级的三级数据传输协同优化,可将AI加速卡资源利用率提高55%[9] - 智能运维与调度:通过物理集群数字孪生实现可视化智能管理,智能化运维平台支撑集群长期可用性达99.99%,智能调度引擎可管理万级节点、服务十万级用户,支持每秒万级作业调度[9] 开放架构与生态战略 - scaleX万卡超集群作为“AI计算开放架构”的最新成果,可支持多品牌加速卡以及主流计算生态,并实现了对400+主流大模型、世界模型的适配优化[10] - “AI计算开放架构”由中科曙光协同20多家AI产业链企业共同推出,旨在共享关键共性技术能力,通过系统工程思维推进智算集群创新[10] - 这种“类安卓”的开放模式给予用户更大选择权,避免单一厂商技术锁定,同时积极兼容主流AI开发框架,推动国产软硬件生态适配,降低了开发者和应用迁移门槛[12] - 开放架构有助于解决芯片与基础软件协同、模型-硬件适配优化等难题,破解“硬件墙”“生态墙”壁垒,让算力资源更加“普惠化”[12] 产品意义与价值 - 曙光万卡超集群的发布标志着国产大规模算力集群技术进入新阶段[5] - 其价值体现了从硬件堆叠到系统级协同的范式转变,通过开放架构和软硬一体化设计,让大规模算力从“昂贵奢侈品”逐渐走向“可规模化部署的公共服务”[13] - 该产品为国内AI产业生态的自主演进提供了关键支撑,其强大性能将推动大模型训练与推理、科学智能、数字孪生与智能制造、金融赋能等应用场景的创新[12][13]