Workflow
超节点时代
icon
搜索文档
下载量超 1300 万,昇思 MindSpore:AI 框架迈入“超节点时代”
AI前线· 2025-12-30 13:32
昇思MindSpore社区发展成果 - 开源五周年之际,昇思MindSpore社区取得高速增长,累积下载量超过1300万,社区核心贡献开发者超过5.2万人,代码核入量超过12万,拥有全球150多个国家和地区用户,联合超过两千多家社区孵化3100多个行业应用 [2] - 社区已形成清晰定位,专注AI框架本身,与训练推理加速库、模型社区、评测与工具社区协同发展,支持超过二十五类模型,覆盖从脚本开发、并行训练、效果微调到部署的全流程开箱即用能力 [3] - 在大模型推理场景中,MindSpore已实现对vLLM社区能力的全面对接,在一体机等关键场景下,无需修改代码即可通过编译加速获得超过15%的性能提升 [3] AI框架技术演进与MindSpore新架构 - 随着大语言模型兴起,模型规模跃迁至百亿、千亿甚至万亿级,计算形态转向集群,模型并行、序列并行、专家并行等方式应运而生 [4] - 全模态模型与Agentic AI的兴起,以及算力底座向超节点架构演进,正在推动AI框架迈向新的架构范式,新范式主要面临模型序列长度增长带来的存储压力、全模态模型结构不规则化带来的并行与优化复杂度、以及Agentic RL等新训推范式对多任务异构调度的要求三方面挑战 [4] - MindSpore与超节点硬件深度协同,提出HyperParallel架构,将超节点视为一台超级计算机进行统一编程与调度,并引入Hyperoffload等关键技术 [4] - Hyperoffload通过计算与状态分离,将权重、激活与优化器状态卸载到外部内存池,实际效果显示训练性能可提升约20%,推理场景下可支持的序列长度提升约七成 [4] - HyperMPMD引入多维MPMD并行,在子模型内、子模型间以及跨模态跨任务三个维度提升通算掩盖率与资源利用率,使整体集群算力利用率提升约15% [11] - Hypershard提供声明式并行编程范式,实现算法与并行策略解耦,使新算法的并行化改造时间缩短至一天以内,并行调优从天级降至小时级 [11] - 昇思HyperParallel架构充分发挥超节点架构优势,实现HyperShard声明式并行编程、HyperMPMD异构非规则并行、HyperOffload多级智能卸载等特性,加速Agentic AI、全模态等新模型结构和训推范式创新 [6] - 超节点亲和的HyperParallel架构正式版本及配套的全模态与强化学习加速套件将于明年上半年发布 [7] MindSpore的技术能力与生态覆盖 - 在大模型领域,MindSpore已原生支持超大规模集群并行,可覆盖数万个计算节点,支持万亿级参数规模的一站式并行策略搜索与执行优化 [5] - 在部署层面,MindSpore打通了端、边、云全场景能力,从数据中心服务器集群到耳机、手表等小型终端设备均可提供完整的训练与推理能力,目前已应用于从服务器到数亿台终端设备的广泛场景中 [5] - 在科学计算方向,MindSpore原生支持NumPy、SciPy等接口加速,并通过函数式自动微分能力帮助科研人员探索AI for Science应用 [5] - 未来MindSpore社区还将在端侧智能、架构开放以及行业使能等方向持续推进,覆盖端侧大模型与Agent加速、核心能力模块化开放,以及面向AI for Science与行业迁移的工具体系建设 [7]
昇思MindSpore AI框架下载量超1300万
环球网资讯· 2025-12-26 08:56
昇思MindSpore AI框架发展现状 - 昇思MindSpore AI框架全球下载量超过1300万,覆盖156个国家和地区,社区贡献者超过5.2万 [1] - 公司致力于打造超节点亲和、全场景融合、架构开放、敏捷使能的人工智能框架,以助力千行万业智能化转型 [1] 昇思MindSpore技术架构与创新 - 昇思MindSpore聚焦超节点技术创新,打造昇思HyperParallel架构,以加速新模型结构和新训推范式创新,引领AI框架迈入“超节点时代” [1] - 昇思HyperParallel架构将超节点视为一台“超级计算机”进行编程和调度,具备HyperShard声明式并行编程、HyperMPMD异构非规则并行、HyperOffload多级智能卸载等特性 [4] - 该架构旨在加速Agentic AI(代理式人工智能)、全模态等新模型结构和训推范式创新 [4] 行业应用与生态合作案例 - 中国商飞上海飞机设计研究院基于昇思MindSpore框架,推出业界首个民机超临界翼型气动设计智能体“御风·智翼”,构建了基于工程经验的超临界翼型智能一站式解决方案 [3] - 昇思社区践行共建共治共享理念,积极融入业界生态,并全链路支持AI人才培养 [3] - 大会由昇思MindSpore开源社区、全球计算联盟GCC主办,联合了华为技术有限公司、OSCHINA开源中国、AtomGit、Gitee、AITISA新一代人工智能产业技术创新战略联盟、OpenI启智社区、魔乐社区、焕新社区、书生社区、司南社区等多个组织承办 [4] 人工智能行业发展趋势 - 人工智能大模型的规模正走向长序列和稀疏的十万亿级,模型结构走向非规则化,训推范式走向异构化 [3] - 模型发展正驱动AI基础设施从“服务器集群时代”迈入“超节点时代”,AI框架作为产业智能化的核心基石面临新的挑战和机遇 [3]
昇思MindSpore开源五年下载量超1300万,AI框架进入“超节点时代”
新浪财经· 2025-12-25 20:14
行业趋势与挑战 - 人工智能大模型技术飞速发展,模型规模走向长序列和稀疏的十万亿级,模型结构走向非规则化,训推范式走向异构化 [3] - 模型发展驱动AI基础设施从“服务器集群时代”迈入“超节点时代” [3] - AI框架作为产业智能化的核心基石正面临新的挑战和机遇 [3] 公司战略与定位 - 昇思MindSpore AI框架致力于打造超节点亲和、全场景融合、架构开放、敏捷使能的人工智能框架 [2] - 公司提出昇思MindSpore是“为超节点而生的AI框架”,旨在将超节点视为一台“超级计算机”进行编程和调度 [2][3] - 框架的核心目标之一是提升资源利用率,这是训练大模型或实际AI应用中的关键问题 [4] 技术创新与架构 - 昇思MindSpore聚焦超节点技术创新,打造昇思HyperParallel架构,以加速新模型结构和新训推范式创新 [2] - HyperParallel架构具备HyperShard声明式并行编程、HyperMPMD异构非规则并行、HyperOffload多级智能卸载等特性 [3] - 该架构旨在充分发挥超节点(由NPU AI算力通过超高互联带宽连接而成)的优势,解决复杂通信问题,并提高任务调度效率 [3][4] 市场表现与生态 - 昇思MindSpore于2020年3月28日开源,下载量超过1300万,覆盖全球156个国家和地区 [2] - 社区贡献者超过5.2万,合入请求超过12万,支持25+系列大模型,拥有2000+社区合作伙伴和3100+行业应用实践 [2] - 该框架支撑近2500个学术论文创新,在所有AI框架中排名中国第一、全球第二 [2]
中兴通讯20251010
2025-10-13 09:00
行业与公司 * 纪要涉及的行业为人工智能算力行业,特别是超节点计算系统领域[2] * 纪要核心讨论的公司包括中兴通讯、华为、英伟达、阿里巴巴、腾讯以及中芯微电子[2][4][5][6][12] 核心观点与论据 **1 超节点时代已成为AI算力发展关键范式** * 超节点时代核心在于计算、存储和网络一体化架构,以实现成本最低和进步最快[3] * 英伟达GB200产品开启超节点时代,国内参考GB200推进新系统开发[3] * 超节点已成为国产算力标配,主要技术路线为英伟达NVLink闭环和华为引领的临朐总线[2][3] **2 系统能力取代单卡能力成为竞争核心** * 大模型训练参数增加导致算力需求攀升,跨服务器、跨机柜高速互联成为行业热点与挑战[7] * 高带宽、低时延、可靠性及能效目标依赖于系统级协同能力,而非单一GPU性能[7] * 从单卡模式升级到系统级协同决定性能与成本关键,需要整套系统工程能力[7] **3 通信系统厂商在算力领域具备互联优势** * 华为凭借通信系统积累能构建8,000卡甚至1.5万卡大规模集群[8] * 英伟达通过收购Mellanox和Cumulus Networks强化Networking能力,并通过NVLink和CUDA生态延伸计算能力[2][8] * 通信系统厂商具备底层芯片定义能力、设备级别大规模量产和系统交付能力[8] **4 主要厂商超节点布局与产品参数** * 英伟达GB200 NVL72架构含36个Grace CPU和72个Blackwell GPU,通过第五代NVLink实现全互联,单个GPU单向带宽达1.8TBPS,可扩展至3.2万卡GPU系统[5] * 华为Cloud Metric 384开启国内超节点时代,Atlas 900 SuperPod采用零区总线技术,实现384张920C MPU全对等互联,内存总带宽超1,000TB,2025年推出8,192张卡超级点并计划推出1.5万张卡系统[5] * 阿里巴巴推出盘酒128超节点,通过开放UA link实现以太网ScaleUP,计划未来三年投入3,800亿人民币,下一代目标为144颗芯片单机柜功率超600千瓦[6] * 腾讯基于以太网X路线推出原型机,正在进行相关产品研发[6] **5 中兴通讯在超节点与算力领域进展显著** * 中兴通讯智算超节点系统获2025年中国算力大会年度重大突破成果奖,基于GPU卡间高速互联、开放架构及自研凌云AI交换芯片[2][9] * Nebula 64超节点系统支持Olink、UA Link、OSA及PCIE接口等多种主流互联协议,实现16个计算节点与8个交换节点大规模互联[9] * 公司通过自研底层IP及系统调优能力,协同国内GPU公司实现大规模交付与开放生态建设[9] **6 中兴通讯通过自主研发提升竞争力与市场表现** * 公司自主研发关键部件如微电子、主板、网卡以提升利润率并保障供应链安全,拥有柔性化、自动化智能工厂[4][10] * AI领域专利超5,000项,自研芯片专利申请5,700项,通过自研芯片、自主设计服务器及资源管理平台实现全智算底座建设[4][10] * 2025年上半年服务器及存储营收同比增长超200%,AI服务器占比达55%[4][11] * 中标多个大型采购项目,总金额超160亿元和数十亿元,并在项目中位列第一,全系列服务器已全面应用于国内前十大互联网头部厂商[4][11] **7 中芯微电子芯片产品成就与优势** * 中芯微电子具备复杂SOC芯片全流程设计能力,自主研发并成功商业化芯片超130种,覆盖ICP产业算力网络终端全领域[12] * 自研AI大容量交换芯片"凌云"基于传统CT领域框式交换机技术,支持万卡、十万卡超大规模智算集群,解决带宽、延迟和功耗问题[13][14] * 珠峰CPU采用ARM架构,珠峰1.0搭载128颗核心,主频最高达3.1GHz,适用于视频转码、高算力服务等场景[15] * 定海DPU支持RDMA标卡、智能网卡等多种形态,提供算法加速器、安全加解密功能,减轻处理器负担,提供低时延、高转发率解决方案[16] 其他重要内容 * 中兴通讯在运营商服务器市场占据龙头地位,并迅速拓展互联网厂商市场,通过设立专门客户负责人制度有效打开关键客户[17] * 公司从CT向IT大力转型,加速推进国产化替代,是未来IT和计算领域重要参与者,建议投资者持续关注其在AI与智算领域发展[17]