Workflow
AI计算开放架构
icon
搜索文档
中科曙光高级副总裁李斌:算力基础设施的成熟标志是“开放”
经济观察网· 2026-02-13 07:03
行业背景与核心矛盾 - 人工智能产业发展对算力提出苛刻要求,大模型参数量从亿级向万亿级跃升,导致计算量指数级增长[1] - 国内算力产业长期面临结构性矛盾:需求侧急需大规模、稳定算力,供给侧却呈现严重碎片化特征[1] - 各家厂商在硬件设计、软件栈和互连协议上自成体系,导致算力资源难以跨平台调度,用户迁移成本高[2] - 市场需要的是高效、安全、稳定的智能计算基础设施[3] 战略方向与开放架构 - 公司于2025年明确提出“AI计算开放架构”战略,核心逻辑在于分工与协作,旨在建立开放的产业格局,让国产芯片、整机、软件和大模型等产业链上下游企业能够解耦协作[4] - 郑州上线的scaleX万卡超集群是该战略落地的产物,基于开放架构设计,能够支持不同品牌的国产加速卡进行异构部署,并在软件层面兼容CUDA等主流计算生态[4][5] - 开放架构的兼容性降低了开发者使用门槛,让用户拥有更多选择权,不必被单一技术路线绑定[6] 技术突破与工程化落地 - scaleX万卡超集群部署于国家超算互联网核心节点,最大可对外提供超过3万张AI加速卡的算力[1] - 系统工程化落地攻克了软硬件协同优化、高密度集成、高效供电与散热、高速互连扩展、智能运维管理等技术难关[4] - 采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,同时将PUE值降低至1.04[4] - 通过存、算、传一体化协同设计优化,实现从芯片级、系统级到应用级的三级数据传输协同优化,可将AI加速卡资源利用率提高55%[4] - 该系统已验证国产算力基础设施的工程化能力,行业已从早期单点突破转向集群创新,并实现大规模落地部署[1] 应用场景与效能 - 针对超大规模模型训练,万卡超集群可以支持万亿参数模型的整机训练与容错恢复[7] - 面向高通量推理场景,超集群已服务于多家头部互联网用户的核心智能化业务,并通过联合深度优化持续提升推理效能[7] - 在AI for Science领域,支撑国内某材料研发大模型登顶国际权威榜单,并助力国内顶级科研团队将蛋白质研究效率提升3—6个数量级[7] - 搭配OneScience科学大模型一站式开发平台,超集群能够大幅降低多学科交叉研究的创新门槛[8] - 系统已经实现了超过400个主流大模型和世界模型的适配优化[5] 未来展望与产业生态 - 展望2026年,智能化浪潮将推动计算产业进入新的发展周期[8] - 公司将继续坚持“开放”技术路线,认为只有基于开放架构、统一标准,才能有效联动产业链上下游企业、高校及科研院所,开展协同技术攻关,构建具有国际竞争力的产业生态[8] - 公司将重点关注核心部件、整机系统、软件生态及应用服务的全链条创新,致力于解决异构算力的适配难题,提升算力资源利用效率[8] - 无论是面对万亿参数大模型训练,还是科学计算的复杂场景,公司都将提供成熟、可靠的解决方案[8] - 公司将以务实态度,推动国产智能计算基础设施向着开放、高效、安全的方向演进[9]
中科曙光高级副总裁李斌:算力基础设施的成熟标志是“开放”|2026商业新愿景
经济观察网· 2026-02-13 00:02
行业背景与核心矛盾 - 人工智能产业发展对算力提出苛刻要求,大模型参数量从亿级向万亿级跃升,导致计算量指数级增长 [3] - 国内算力产业长期存在结构性矛盾:需求侧急需大规模稳定算力,供给侧却呈现严重的碎片化特征 [4] - 各厂商硬件设计、软件栈和互连协议自成体系,形成封闭技术路线,导致算力资源难以跨平台调度,用户迁移成本高 [5] - 市场需要的是高效、安全、稳定的智能计算基础设施 [6] 战略方向与开放架构 - 公司于2025年明确提出“AI计算开放架构”战略,核心逻辑在于产业分工与协作 [7] - 战略主张建立开放的产业格局,使国产芯片、整机、软件和大模型等产业链上下游企业能够解耦协作 [8] - 基于开放架构设计的系统能够支持不同品牌的国产加速卡进行异构部署,并在软件层面兼容CUDA等主流计算生态 [9] - 该开放架构降低了开发者的使用门槛,让用户拥有更多选择权,不必被单一技术路线绑定 [9] - 公司将继续坚持“开放”的技术路线,认为只有基于开放架构和统一标准,才能有效联动产业链,构建具有国际竞争力的产业生态 [13] 核心产品与技术突破 - 国家超算互联网核心节点在郑州上线试运行,部署了3套由公司提供的scaleX万卡超集群,最大可对外提供超过3万张AI加速卡的算力 [2] - scaleX万卡超集群是“AI计算开放架构”战略落地的产物 [8] - 系统工程化落地攻克了软硬件协同优化、高密度集成、高效供电与散热、高速互连扩展、智能运维管理等技术难关 [8] - 采用超高密度刀片、浸没相变液冷等技术,将单机柜的算力密度提升了20倍,同时将PUE值(电源使用效率)降低到1.04 [8] - 通过“超级隧道”、AI数据加速等设计,实现从芯片级、系统级到应用级的三级数据传输协同优化,可将AI加速卡资源利用率提高55% [8] - 该系统已经实现了超过400个主流大模型和世界模型的适配优化 [9] 应用场景与价值体现 - 针对超大规模模型训练,万卡超集群可以支持万亿参数模型的整机训练与容错恢复 [10] - 面向高通量推理场景,超集群已服务于多家头部互联网用户的核心智能化业务,并通过联合深度优化持续提升推理效能 [11] - 在AI for Science领域,支撑国内某材料研发大模型登顶国际权威榜单,并助力国内顶级科研团队将蛋白质研究效率提升3—6个数量级 [11] - 搭配OneScience科学大模型一站式开发平台,超集群能够大幅降低多学科交叉研究的创新门槛 [12] - 算力设施建设的最终目的是服务于实体产业,其价值取决于能否融入产业作业流程并解决实际问题 [9] - 当算力、数据和应用场景真正结合时,技术才能转化为推动经济发展的动能 [13] 行业趋势与公司展望 - 郑州核心节点的上线试运行,验证了国产算力基础设施的工程化能力,行业已从早期的单点突破转向集群创新,并实现大规模的落地部署 [2] - 展望2026年,智能化浪潮将推动计算产业进入一个新的发展周期 [13] - 公司2026年将继续以务实的态度,推动国产智能计算基础设施向着开放、高效、安全的方向演进 [15] - 公司将重点关注核心部件、整机系统、软件生态及应用服务的全链条创新,致力于解决异构算力的适配难题,提升算力资源利用效率 [13] - 无论是面对万亿参数的大模型训练,还是科学计算的复杂场景,公司都将提供成熟、可靠的解决方案 [13]
万卡集群点亮中原:国家级“智算样板间”的落地与远见
新浪财经· 2026-02-09 09:21
核心事件与意义 - 2024年2月5日,由中科曙光提供的3套万卡超集群系统在国家超算互联网核心节点(郑州)上线试运行,成为全国首个实现3万卡部署且投入运营的最大国产AI算力池 [1] - 此举标志着郑州成为AI时代中国算力基础设施的战略枢纽,是国家级“智算样板间”践行“开放架构”的关键里程碑,对未来全国的产业协同、AI创新和生态赋能具有重要意义 [1][12] 行业背景与需求 - AI时代,大模型、AI Agent、AI for Science等需求爆炸式增长,导致算力需求激增 [3][14] - 当前大量数据中心、智算中心存在供需脱节、标准不一、生态不兼容等问题,导致算力闲置和资源配置效率偏低 [3][14] - 国家超算互联网旨在构建国家级算力设施与服务平台,打破壁垒、降低算力成本,让算力像水电一样自由流通和高效使用 [5][16] 技术方案与性能 - 部署的系统为中科曙光scaleX万卡超集群,最大可对外提供超过3万张国产AI加速卡算力 [6][16] - 该系统通过scaleFabric高速网络互连,可实现10240块AI加速卡部署,采用超高密度刀片和浸没相变液冷技术,将单机柜算力密度提升20倍,PUE值低至1.04 [7][16] - 采用自主研发原生RDMA高速网络,实现400Gb/s超高带宽和低于1微秒的端侧通信延迟,集群规模可扩展至十万乃至百万卡以上 [7][17] - 通过存、算、传紧耦合深度优化,可将AI加速卡资源利用率提高55%,并通过数字孪生和智能运维实现长期可用性达99.99% [7][17] - 智能调度引擎可服务十万级用户,支持每秒万级作业调度 [7][17] - 该系统在2023年12月首次真机亮相,两个月后即实现超3万卡规模落地,标志着国产万卡集群进入规模化部署与实战应用新阶段 [8][17] 开放架构与生态 - scaleX万卡超集群践行AI计算开放架构理念,全面兼容CUDA等主流软件生态,并支持多种AI加速卡混合部署 [10][19] - 开放架构能促进技术创新和产业协同,降低用户适配和使用门槛,推动算力普惠并催生创新浪潮 [10][19] - 基于开放架构,该系统已完成400多个主流大模型和世界模型的适配优化,依托国家超算互联网可接入上千款应用,链接更多生态伙伴,实现“算力+应用”一体化交付 [10][19] 战略定位与展望 - 算力网络正成为AI革命的基石,此次3套万卡集群落地是国家发展算力基础设施的清晰路径表达:注重自主创新与开放包容,追求技术领先与普惠共享 [12][20] - 该事件展示了国产大规模智算基础设施的先进性,并证明了开放包容路径的可行性与优越性 [12][20]
当开放架构遇上“产业大集”:国产AI生态进入“群体跃迁”时刻
钛媒体APP· 2025-12-22 18:54
行业趋势:从技术单点突破转向生态协同 - 中国人工智能产业的竞争规则正在被改写,衡量AI计算产业竞争力的新标尺从单点技术突破转向以“开放架构”为基座的生态协同能力 [1] - 超过2500家上下游企业共同展示产业趋势,通过打破“技术墙”和“生态墙”,中国AI计算产业正以“群体跃迁”模式,将价值重心从硬件性能转向生态协同效率 [1] - 光合组织成立五年来已汇聚超过6000家生态伙伴,持续推动标准制定与跨层协作,“开放”理念正渗透到部件、系统、基础设施、软件、数据等各个层面 [3] 开放架构:突破瓶颈与实现算力普惠 - 人工智能已升级为核心生产要素,但产业面临“技术墙”与“生态墙”的双重制约,包括高端算力供给不足、软硬件适配不畅、技术标准不一、应用成本高昂等问题,“开放”成为产业突破瓶颈的必然选择 [4] - AI计算开放架构通过共享关键共性技术能力,降低行业研发应用门槛,促进算力普惠 [4] - 基于开放架构打造的中科曙光scaleX万卡超集群正式发布,该集群由16个scaleX640超节点通过scaleFabric高速网络互连,可部署10240块AI加速卡,总算力规模超5EFlops,部分技术与能力已超越海外同类产品研发路线图的2027年NVL576里程节点 [4] - 该架构硬件支持多品牌AI加速卡,软件兼容主流计算生态,验证了开放架构的技术可行性与优势 [4] 生态融合:从物理堆砌到化学融合 - AI计算开放架构通过统一标准与技术共享,推动产业链上下游实现从“物理堆砌”到“化学融合”的质变,构建开放兼容的软硬件技术生态体系 [6] - 该架构有效解决高端AI算力不足、创新门槛高、产业协同难等行业痛点 [6] - HAIC2025期间,超过50项光合生态人工智能创新成果集中发布,数十项战略合作及签约密集达成,系统呈现了覆盖硬件、软件、应用、服务等全链条的产业成果 [6] 伙伴实践:开放生态下的协同创新 - 众多生态伙伴的实践印证了“多厂商协作、共同底座支撑”模式的可行性与竞争力,共同推动国产AI生态进入“群体跃迁”阶段 [7] - 雷神科技依托开放架构,发布搭载海光最强芯片的电竞主机,标志着国产芯片正式切入电竞领域,并通过系统优化与显卡适配实现良好的游戏性能释放 [7] - 雷神科技创始人表示,开放平台避免了企业成为“信息孤岛”,推动行业资源高效协同,降低了产品成本,并能提供更优质的用户体验 [7] - 紫光计算机凭借开放共享优势,在金融、能源电力、医疗等重点领域取得进展,其基于国产CPU、国产显卡及AI的XPU打造的AI应用模型已成功应用于药物研发、医疗电子阅片等场景 [8] - 紫光计算机产品中心总经理指出,开放架构有效解决了国内ICT市场架构多元、适配复杂的痛点,避免了硬件厂商的几何乘积式交叉适配,大幅提升了产业效率 [8] - 优刻得作为云平台服务商,通过对国产算力的深度适配与异步化调度,解决了不同类型算力的割裂与兼容问题,已与3-5家国产芯片厂商建立合作,搭建大型集群面向多用户提供服务 [8] - 优刻得为大型制造企业集团提供多类型算力统一管理调度解决方案,将分散算力转化为实际生产力,开放架构降低了企业AI算力布局门槛,凸显了国产算力的性价比优势 [8][9] 共生模式:产业发展的核心动力 - 生态伙伴的实践呈现共同特征:依托开放架构统一底座实现技术资源共享互补,通过跨企业、跨层级协作攻克技术难题,聚焦真实应用场景推动技术与市场融合 [9] - “多厂商协作、共同底座支撑”的共生模式已成为国产AI生态发展的核心动力,从雷神科技的消费端突破,到紫光计算机的行业场景落地,再到优刻得的算力平台赋能 [9] - 该模式打破了封闭垄断,促进了良性竞争,降低了创新门槛,避免了重复研发,构建了共赢生态 [10] - 国家先进计算产业创新中心主任指出,“拒绝内卷、分工协作”是解决AI计算产业发展痛点的必要手段,旨在加速产业从无序竞争的“红海”迈向协同共生的“蓝海” [10] 未来规划:联合研发与生态建设 - 光合组织着眼于产业未来,“AI计算开放架构联合实验室”未来三年将投入10亿元资源,吸引150余家成员单位、1000余名研发人员参与,开展30余项联合研发项目,培养1万名开发者 [12] - 此举旨在推动更多技术标准制定与落地,国产AI将在算力供给、生态兼容、行业应用等方面实现全面提升,有望在全球AI竞争中形成独特生态优势 [12]
算力内卷时代,“开放架构”万卡超集群为何成刚需?
犀牛财经· 2025-12-20 12:47
行业背景与需求 - AI大模型研发门槛极高,需要庞大的算力支持,例如打造ChatGPT级别的大模型至少需要1万枚英伟达H100加速卡[1] - 随着ChatGPT、文生视频等AI应用普及,各行业算力需求呈指数级增长,IDC预测到2028年中国智能算力需求将达到2781 EFLOPS,年均增长率高达46.2%[1] - 传统计算集群在规模扩大到数千张卡后,会遇到通信延迟高、并行效率低、能耗成本急剧攀升等难以逾越的瓶颈[1][6] - 截至2025年6月,中国生成式AI用户规模达5.15亿人,较2024年12月增长2.66亿人,用户规模半年翻番,普及率达36.5%,其中超过三分之二(67.7%)的用户每天都会使用AI生成[6] 公司产品发布 - 2025年12月18日,在光合组织2025人工智能创新技术大会(HAIC2025)上,中科曙光发布了曙光scaleX万卡超集群系统[3] - 该系统是国产万卡级超集群真机的首秀,由16个超节点通过自主研发高速网络连接而成,可支持10240张AI加速卡协同工作[5] - 该系统面向万亿参数大模型、科学智能等复杂任务场景打造,在超节点架构、高速互连网络、存储性能优化、系统管理调度等方面实现多项创新突破,部分技术与能力已超越海外将于2027年推出的NVL576[3] 产品技术优势 - **超高密度与能效**:全球首创单机柜级640卡超节点,采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04,总算力规模超5 EFlops[6] - **高速互连网络**:采用自主研发的scaleFabric网络,基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,实现400Gb/s超高带宽、低于1微秒端侧通信延迟,相比传统IB网络性能提升2.33倍,同时网络总体成本降低30%,并可轻松将集群规模扩展至10万卡以上[9] - **系统级协同优化**:通过“超级隧道”、AI数据加速等设计,实现芯片级、系统级到应用级的三级数据传输协同优化,可将AI加速卡资源利用率提高55%[9] - **智能运维与调度**:通过物理集群数字孪生实现可视化智能管理,智能化运维平台支撑集群长期可用性达99.99%,智能调度引擎可管理万级节点、服务十万级用户,支持每秒万级作业调度[9] 开放架构与生态战略 - scaleX万卡超集群作为“AI计算开放架构”的最新成果,可支持多品牌加速卡以及主流计算生态,并实现了对400+主流大模型、世界模型的适配优化[10] - “AI计算开放架构”由中科曙光协同20多家AI产业链企业共同推出,旨在共享关键共性技术能力,通过系统工程思维推进智算集群创新[10] - 这种“类安卓”的开放模式给予用户更大选择权,避免单一厂商技术锁定,同时积极兼容主流AI开发框架,推动国产软硬件生态适配,降低了开发者和应用迁移门槛[12] - 开放架构有助于解决芯片与基础软件协同、模型-硬件适配优化等难题,破解“硬件墙”“生态墙”壁垒,让算力资源更加“普惠化”[12] 产品意义与价值 - 曙光万卡超集群的发布标志着国产大规模算力集群技术进入新阶段[5] - 其价值体现了从硬件堆叠到系统级协同的范式转变,通过开放架构和软硬一体化设计,让大规模算力从“昂贵奢侈品”逐渐走向“可规模化部署的公共服务”[13] - 该产品为国内AI产业生态的自主演进提供了关键支撑,其强大性能将推动大模型训练与推理、科学智能、数字孪生与智能制造、金融赋能等应用场景的创新[12][13]
全球领先,国产万卡超集群首次真机亮相
犀牛财经· 2025-12-18 17:26
产品发布与核心定位 - 中科曙光在光合组织2025人工智能创新大会上发布并展出了全球领先的大规模智能计算系统“scaleX万卡超集群” [1] - 这是国产万卡级AI集群系统首次以真机形式亮相 [1] - 该系统是面向万亿参数大模型、科学智能等复杂任务场景打造的大规模智能算力基础设施方案 [3] 核心技术优势与性能指标 - 全球首创单机柜级640卡超节点(scaleX640),采用超高密度刀片、浸没相变液冷技术,将单机柜算力密度提升20倍,PUE值低至1.04 [3] - scaleX万卡超集群由16个scaleX640超节点通过高速网络互连,实现10240块AI加速卡部署,总算力规模超5EFlops [3] - 自主研发原生RDMA高速网络(scaleFabric),基于国内首款400G类InfiniBand网卡与交换芯片,实现400Gb/s带宽、低于1微秒延迟 [4] - 相比传统IB网络,scaleFabric网络性能提升2.33倍,同时网络总体成本降低30%,并可将超集群规模轻松扩展至10万卡以上 [4] - 通过“超级隧道”、AI数据加速等设计实现存、算、传紧耦合优化,可将AI加速卡资源利用率提高55% [4] - 通过超集群数字孪生与智能调度,实现故障定位、修复等全流程可视化智能管理,支撑集群长期可用性达99.99% [4] - 智能调度引擎可管理万级节点、服务十万级用户,支持每秒万级作业调度 [4] 产业生态与应用场景 - scaleX万卡超集群是“AI计算开放架构”的最新成果,可支持多品牌加速卡以及主流计算生态,并实现400+主流大模型、世界模型等适配优化 [6] - “AI计算开放架构”由中科曙光协同20多家AI产业链企业共同推出,旨在共享关键共性技术能力,推进智算集群创新 [6] - 该超集群可覆盖大模型训练、金融风控、地质能源勘探及科学智能等多元应用场景 [6] - 通过该产品,AI企业可降低智算集群研发门槛,推动从技术“单点突围”走向产业“生态共进” [6]
首个“AI计算开放架构”行业大会亮相昆山——HAIC 2025打造国产智能计算产业大集
经济观察网· 2025-12-18 11:30
行业大会概况 - 光合组织于2025年12月18日在江苏昆山举办2025人工智能创新大会(HAIC2025) [1] - 该大会是国内首个聚焦“AI计算开放架构”的行业大会 [1] - 大会汇聚了芯片、服务器、存储、超节点、AIPC、大模型、智能体及行业应用等产业链上下游机构与企业 [1] - 大会覆盖从底层算力到系统平台再到应用落地的完整产业链条 [1] 大会核心议题与成果 - 与会各方围绕开放架构下的算力协同、软硬件适配和生态共建展开交流 [1] - 大会集中展示了国产智能计算在体系化推进中的阶段性成果 [1] 大会意义与行业影响 - 在人工智能加速走向规模化应用的背景下,大会以“产业大集”形式搭建跨领域协同平台 [1] - 大会将推动国产计算生态从单点突破向系统化、开放化演进 [1] - 大会为智能计算产业的持续发展提供了现实路径 [1]
聚焦“AI计算开放架构” 光合组织2025人工智能创新大会即将举办
中国新闻网· 2025-12-05 15:51
大会概况 - 中国国内首个以“AI计算开放架构”为核心的行业盛会——光合组织2025人工智能创新大会(HAIC2025)即将于12月17日至19日在江苏昆山举办 [1] - 大会预计吸引超过2500家企业参会 [1] - 大会将全景展示从芯片、系统到应用的全栈开放成果 [1] 大会核心内容与展示 - 大会将首次大规模集中展示国产人工智能(AI)加速计算全栈技术 [3] - 大会将发布AI计算开放架构联合实验室行动计划 [3] - 基于AI计算开放架构打造的全球领先大规模智算超集群系统将亮相 [3] - 该智算超集群系统采用中国自主研发的高速互联网络技术,在算力密度与系统性能上实现双重突破,验证了开放技术路线的可行性与竞争力 [3] 大会组织与平台价值 - 大会由光合组织举办,该组织是国家先进计算产业创新中心旗下的产学研合作平台 [1] - 大会将设立六大分论坛,邀请百余位专家分享前沿案例,促进产业全链协同创新 [3] - 大会旨在为中国AI计算的可持续发展提供开放平台与实践样板 [3] 光合组织背景与生态 - 光合组织以构建自主可控、开放协同的国产计算生态为使命,旨在汇聚产业全链、共破发展瓶颈 [3] - 光合组织目前已有超6000家合作伙伴,建成28个生态适配中心 [3]
“大块头”让国产算力密度提升20倍!全球首个单机柜级640卡超节点scaleX640亮相长沙
长沙晚报· 2025-11-20 16:57
产品发布与核心特性 - 中科曙光在世界计算大会上发布全球首个单机柜级640卡超节点ScaleX640 [1][3] - 该设备由1台浸没液冷换热模块和2台浸没液冷专用计算机柜组成 高约3米 长宽近3米 [3] - ScaleX640实现了20倍算力密度的提升 并可支撑未来百万卡级算力集群扩展 [1][3] - 传统方案需十几个机柜实现的算力 ScaleX640单机柜即可超越 [3] 技术创新与性能优势 - 采用浸没相变液冷核心技术 发热部件完全浸没于特殊冷却液中 依靠液体在35℃沸腾汽化带走热量 [3] - 设备工作温度稳定在35摄氏度以内 系统能效比控制在极低的1.04水平 意味着96%的电力被直接用于计算 [4] - 相比传统风冷方案 可节电30%以上 [4] - 通过一体化紧耦合设计 实现单机柜内640卡超高速互连 在MoE万亿参数大模型训练等场景中可实现30%至40%的性能提升 [4] 产业生态与战略意义 - ScaleX640遵循由中科曙光联合20余家产业链伙伴共同发起的"AI计算开放架构"理念 [5] - 该架构开放了从部件、系统到软件、数据集等五个层面的技术能力 以推动算力普惠与生态共建 [5] - 设备支持多品牌加速卡 在软件层面兼容主流计算生态 使用户能够灵活选用国产算力 [5] - 可快速部署万亿参数大模型训练、高通量推理及科学智能等高端应用 有效缓解国产智算在应用适配不足、软硬件割裂等方面的痛点 [5]
第六届智能计算创新设计赛(先导杯)总决赛圆满落幕
中国金融信息网· 2025-11-17 19:39
大赛概况与规模 - 2025全国大学生计算机系统能力大赛——智能计算创新设计赛(先导杯)于11月15日至16日在合肥举行线下决赛及颁奖典礼 [1] - 大赛由系统能力培养研究专家组发起、全国高校计算机教育研究会主办、中科曙光与中国科学技术大学联合承办 [1] - 比赛吸引1200余所高校的近万名学生参与,最终58支战队获奖 [3] 赛题设置与模式创新 - 本届“先导杯”设立三道赛题直击AI落地工程化难题:“MoE语言模型端到端效率优化”、“ONNX Runtime算子性能优化”以及“GMRES算法优化” [3] - 大赛率先引入“教学训赛”综合培养模式,从赛题前沿性、场景覆盖面、产教融合度等方面进行升级 [3] - 比赛致力于打造赛题关联技术更新、竞赛支持环境更强、全国参与度更高的智能计算创新设计大赛 [3] 公司战略与行业影响 - 中科曙光高级副总裁表示,公司牵头20多家产业上下游发布中国首个AI计算开放架构,意味着中国AI产业进入开放新阶段 [3] - 公司认为对于复合型AI人才的需求将会持续攀升,“先导杯”作为唯一的智能计算赛道,有责任与社会各界共建AI人才培育机制 [3] - 中科曙光智能计算首席科学家指出,当前AI人才需求是爆发式增长,尤其是进入大模型时代后需求增长速度极快 [4] 产学研融合与生态建设 - 参赛代表队反馈中科曙光的算力平台对学生十分友好,完全可以媲美CUDA,并且公司提供了免费的学习资源和有针对性的线上答疑 [4] - 本届“先导杯”是中科曙光“以赛促教、以研促产”理念的体现,公司通过比赛让做应用的人也能参与到IT生态建设中 [4] - 公司长期关注人才教育,推出“先导杯”、开发者社区、智能计算联合实验室、专项基金等多元措施,携手全国近1000所院校探索“AI+人才培养”新模式 [4]