昇思MindSpore
搜索文档
国产AI登顶全球!智谱+华为联手
科技日报· 2026-01-17 08:19
模型技术突破与架构创新 - GLM-Image采用自主创新的“自回归+扩散解码器”混合架构,实现了图像生成与语言模型的联合,是面向新一代“认知型生成”技术范式的重要探索[3] - 该混合架构兼顾全局指令理解与局部细节刻画,克服了海报、PPT、科普图等知识密集型场景的生成难题[3] - 基于架构创新,模型在CVTG-2K(复杂视觉文本生成)和LongText-Bench(长文本渲染)榜单上获得开源第一[3] - 在CVTG-2K榜单的多区域文字生成准确率上,GLM-Image位列开源模型第一[3] - 在LongText-Bench榜单上,模型在覆盖招牌、海报等8种文字密集场景的长文本渲染准确性上位列开源模型第一[3] - 模型在中文生成准确率上做到开源第一,解决了以往AI画图常出现的文字错乱问题[6] 国产全栈生态验证与产业意义 - GLM-Image是首个在国产芯片(昇腾Atlas 800T A2设备)上完成从数据预处理到大规模预训练全流程的SOTA多模态模型[2][5] - 模型训练全程基于华为昇腾Atlas 800T A2芯片和昇思MindSpore AI框架,验证了在国产全栈算力底座上训练前沿模型的可行性[2][5] - 该合作解决了AI训练“卡脖子”的核心问题,让模型训练摆脱了对国外芯片的依赖[5] - 此次登顶是国产AI全产业链协同的必然结果,有望改写过去“国外定标准、国内跟节奏”的产业格局[6] - 这种全链条能力能让国内中小企业以更低成本使用AI工具,并推动国产AI技术走向全球[6] 市场表现与成本优势 - GLM-Image登顶Hugging Face平台Trending榜第一,打破了长期以来国外模型在开源榜首的垄断局面[2] - 在API调用模式下,生成一张图片仅需0.1元,兼具高性价比[4] - 模型的速度优化版本也即将更新[4] - 模型的开源地址已在GitHub和Hugging Face平台同步开放,全球开发者可免费使用[6]
首次!国芯训国模取得世界第一
智通财经网· 2026-01-16 08:33
模型发布与技术突破 - 智谱与华为联合开源新一代图像生成模型GLM-Image 该模型基于华为昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程 是首个在国产芯片上完成全程训练的SOTA多模态模型[1] - 模型开源不到24小时即冲上全球知名AI开源社区Hugging Face榜单的全球第一 模型性能、创新结构和训练过程迅速引发海外科技圈热议[1] - 该模型是首次完全依托国产芯片训练的国产模型 在国际舞台上取得榜首身位 标志国产AI模型的自主研发能力在国际竞争中取得突破[3] 模型性能与架构创新 - 不同于开源常用的LDM方案 GLM-Image采用了创新的「自回归+扩散解码器」混合架构 兼顾全局指令理解与局部细节刻画[4] - 该架构克服了海报、PPT、科普图等知识密集型场景生成难题 尤其擅长汉字生成任务[4] - 模型向探索以Nano Banana Pro为代表的新一代"知识+推理"的认知型生成模型迈出了重要一步[4] 国产全栈技术验证 - GLM-Image实现了基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架的全流程训练及推理适配 实际训练性能足以达到相应计算设备的汇报性能上限[5] - 此举验证了在国产全栈算力底座上训练前沿模型的可行性[5] - 智谱GLM代表国产大模型架构 华为昇腾代表国产高性能AI芯片 昇思代表华为自研AI计算框架 三者分别代表从核心模型到硬件和计算框架的全栈技术自主突破 构成完整国产AI模型技术栈[5] 行业影响与市场反响 - 美国消费者新闻与商业频道(CNBC)指出 智谱和华为训练出这一最新先进模型 打破了美国芯片的神话[1] - 在Hugging Face榜单上 GLM-Image模型(zai-org/GLM-Image)在文本到图像类别中更新约4小时前获得2.44k次下载和638次点赞 位列趋势排序榜首[4]
华为公布昇腾AI生态进展:开发者数量400万+,发展合作伙伴3000+
新浪财经· 2026-01-09 10:34
昇腾AI生态发展核心数据 - 截至2025年底,昇腾AI生态开源项目Star数超过35K,开发者代码合入行数超过26万行,开发者数量超过400万,发展合作伙伴超过3000家,孵化行业解决方案超过6700个,超过80家硬件合作伙伴发布产品超过200款 [1][3][5] 软件与开源进展 - 2025年8月,昇腾硬件使能层CANN宣布全面开源开放,截至12月31日完成架构升级与分层解耦,在AtomGit平台开源超过30个CANN社区项目,汇聚超过1500名内外部开发者 [3][5] - AI框架昇思MindSpore全球用户下载量超过1300万次,覆盖全球超过130个国家和地区的超过2400个城市,并孵化超过40个大模型和超过380个应用 [3][5] 商业落地与客户覆盖 - 超节点、大EP、一体机等解决方案已在互联网、运营商、国计民生等超过20个行业实现规模落地,助力超过2000家客户取得商业成功 [3][5] 人才培养与生态建设 - 通过竞赛、课程、特训营与师资合作培养AI人才,2025年昇腾AI创新大赛共招募6310支队伍,超过13600名选手报名 [3][5] - 与15所顶尖高校合作成立鲲鹏昇腾科教创新卓越中心或孵化中心 [3][5]
下载量超 1300 万,昇思 MindSpore:AI 框架迈入“超节点时代”
AI前线· 2025-12-30 13:32
昇思MindSpore社区发展成果 - 开源五周年之际,昇思MindSpore社区取得高速增长,累积下载量超过1300万,社区核心贡献开发者超过5.2万人,代码核入量超过12万,拥有全球150多个国家和地区用户,联合超过两千多家社区孵化3100多个行业应用 [2] - 社区已形成清晰定位,专注AI框架本身,与训练推理加速库、模型社区、评测与工具社区协同发展,支持超过二十五类模型,覆盖从脚本开发、并行训练、效果微调到部署的全流程开箱即用能力 [3] - 在大模型推理场景中,MindSpore已实现对vLLM社区能力的全面对接,在一体机等关键场景下,无需修改代码即可通过编译加速获得超过15%的性能提升 [3] AI框架技术演进与MindSpore新架构 - 随着大语言模型兴起,模型规模跃迁至百亿、千亿甚至万亿级,计算形态转向集群,模型并行、序列并行、专家并行等方式应运而生 [4] - 全模态模型与Agentic AI的兴起,以及算力底座向超节点架构演进,正在推动AI框架迈向新的架构范式,新范式主要面临模型序列长度增长带来的存储压力、全模态模型结构不规则化带来的并行与优化复杂度、以及Agentic RL等新训推范式对多任务异构调度的要求三方面挑战 [4] - MindSpore与超节点硬件深度协同,提出HyperParallel架构,将超节点视为一台超级计算机进行统一编程与调度,并引入Hyperoffload等关键技术 [4] - Hyperoffload通过计算与状态分离,将权重、激活与优化器状态卸载到外部内存池,实际效果显示训练性能可提升约20%,推理场景下可支持的序列长度提升约七成 [4] - HyperMPMD引入多维MPMD并行,在子模型内、子模型间以及跨模态跨任务三个维度提升通算掩盖率与资源利用率,使整体集群算力利用率提升约15% [11] - Hypershard提供声明式并行编程范式,实现算法与并行策略解耦,使新算法的并行化改造时间缩短至一天以内,并行调优从天级降至小时级 [11] - 昇思HyperParallel架构充分发挥超节点架构优势,实现HyperShard声明式并行编程、HyperMPMD异构非规则并行、HyperOffload多级智能卸载等特性,加速Agentic AI、全模态等新模型结构和训推范式创新 [6] - 超节点亲和的HyperParallel架构正式版本及配套的全模态与强化学习加速套件将于明年上半年发布 [7] MindSpore的技术能力与生态覆盖 - 在大模型领域,MindSpore已原生支持超大规模集群并行,可覆盖数万个计算节点,支持万亿级参数规模的一站式并行策略搜索与执行优化 [5] - 在部署层面,MindSpore打通了端、边、云全场景能力,从数据中心服务器集群到耳机、手表等小型终端设备均可提供完整的训练与推理能力,目前已应用于从服务器到数亿台终端设备的广泛场景中 [5] - 在科学计算方向,MindSpore原生支持NumPy、SciPy等接口加速,并通过函数式自动微分能力帮助科研人员探索AI for Science应用 [5] - 未来MindSpore社区还将在端侧智能、架构开放以及行业使能等方向持续推进,覆盖端侧大模型与Agent加速、核心能力模块化开放,以及面向AI for Science与行业迁移的工具体系建设 [7]
昇思人工智能框架峰会于杭州召开,正式发布“超节点时代”AI框架新范式
环球网· 2025-12-28 15:13
昇思MindSpore技术架构发布 - 昇思MindSpore提出“超节点”概念,将多台深度互联的物理服务器视为一台“超级计算机”,以应对大模型向十万亿级参数等方向演进对算力、存储与调度效率的更高要求[2] - 昇思正式发布HyperParallel架构,包含三大核心技术:HyperOffload通过计算与状态分离突破HBM瓶颈,训练性能提升20%以上,推理序列长度提升70%;HyperMPMD实现异构并行,提升算力利用率15%以上;HyperShard引入声明式并行编程,使新算法并行改造时间缩短至1天内,并行调优效率从“天级”跃升至“小时级”[4] - HyperParallel架构正式版本及配套加速套件计划于2026年上半年发布[4] 昇思MindSpore社区发展与应用成果 - 自2020年3月开源以来,昇思MindSpore下载量超1300万,覆盖全球156个国家和地区,社区贡献者逾5.2万人,支撑3100余项行业应用,发表近2500篇学术论文,在全球AI框架中稳居中国第一、世界第二[4] - 在“AI for Science”领域,基于昇思框架开发的民机超临界翼型气动设计智能体“御风·智翼”,将传统需数周的气动设计流程压缩至实时交互级别[5] - 在金融领域,招商银行基于昇思构建金融专精大模型,通过多维混合并行策略实现百亿参数模型的稳定训练,已在安全合规、知识问答等上百个场景落地[7] 行业趋势与生态合作 - 行业观点认为大模型的能力密度正以每3.3个月翻倍的速度增长,未来AGI发展需通过高效架构、高质量数据等方法实现“小模型、大智能”[7] - 昇思已原生支持端边云全场景部署,并全面兼容Numpy、Scipy等科学计算接口,同时与vLLM、SGLang等推理引擎完成深度集成[8] - SGLang推理引擎已正式合入MindSpore后端,支持Qwen3、DeepSeek等模型,并完成W8A8量化等关键特性适配[8] - 在人才培养方面,昇思与高校共建的大模型创新人才培养体系已覆盖全国百余所高校、400余名教师[8] 公司战略与未来展望 - 公司表示将持续打造超节点亲和、全场景融合、架构开放、敏捷使能的AI框架,以助力千行万业智能化转型[9] - 随着AI进入“超节点时代”,昇思MindSpore正携手全球开发者与产业伙伴,共同定义下一代AI基础设施,加速通用人工智能时代的到来[10]
AI框架迈入超节点时代 国产技术加快产业落地
新浪财经· 2025-12-26 20:55
行业趋势:AI算力基础设施进入超节点时代 - AI大模型正向十万亿级参数、全模态融合、异构化训推方向演进,驱动算力基础设施从传统服务器集群迈入“超节点时代” [1] - 超节点通过高速互联技术深度整合多台物理机器,形成具备资源池化、规模扩展与长稳可靠特性的“超级计算机”,已成为支撑大模型训练推理的核心算力底座 [1] - 超节点已成为AI算力基础设施的新常态,带来了算力效能的指数级提升 [1] 技术挑战与框架创新 - 超节点架构对AI框架的并行调度、存储优化、编程易用性提出了前所未有的挑战 [1] - AI框架作为连接算力与应用的核心枢纽,其重要性愈发凸显 [1] - 昇思MindSpore针对超节点架构打造HyperParallel架构,将超节点视为一台“超级计算机”进行编程和调度,实现“复杂留给框架,简单交给用户”的设计理念 [1] 应用实践与产业落地 - 在航空工业领域,中国商飞基于昇思框架打造的“御风·智翼”智能体,借助超节点大规模并行计算能力,将民用飞机超临界翼型设计的仿真周期从数周压缩至分钟级 [2] - 在金融领域,招商银行基于昇思框架的多维混合并行策略,构建了百亿参数金融专精模型,应用于安全合规、客户投诉处理等场景,模型训练稳定运行周期可达1-2个月 [2] - 超节点适配的AI框架已在关键领域展现实践价值,正在加速产业落地 [1][2] 生态发展与社区规模 - 生态协同是超节点时代AI框架发展的核心支撑 [2] - 昇思MindSpore开源五年来,已聚集5.2万名核心贡献开发者,覆盖全球150多个国家和地区 [2] - 昇思MindSpore累计下载量超1300万次,支持25类主流大模型及3100多个行业应用 [2]
昇思MindSpore开源五年下载量超1300万,AI框架进入“超节点时代”
新浪财经· 2025-12-25 20:14
行业趋势与挑战 - 人工智能大模型技术飞速发展,模型规模走向长序列和稀疏的十万亿级,模型结构走向非规则化,训推范式走向异构化 [3] - 模型发展驱动AI基础设施从“服务器集群时代”迈入“超节点时代” [3] - AI框架作为产业智能化的核心基石正面临新的挑战和机遇 [3] 公司战略与定位 - 昇思MindSpore AI框架致力于打造超节点亲和、全场景融合、架构开放、敏捷使能的人工智能框架 [2] - 公司提出昇思MindSpore是“为超节点而生的AI框架”,旨在将超节点视为一台“超级计算机”进行编程和调度 [2][3] - 框架的核心目标之一是提升资源利用率,这是训练大模型或实际AI应用中的关键问题 [4] 技术创新与架构 - 昇思MindSpore聚焦超节点技术创新,打造昇思HyperParallel架构,以加速新模型结构和新训推范式创新 [2] - HyperParallel架构具备HyperShard声明式并行编程、HyperMPMD异构非规则并行、HyperOffload多级智能卸载等特性 [3] - 该架构旨在充分发挥超节点(由NPU AI算力通过超高互联带宽连接而成)的优势,解决复杂通信问题,并提高任务调度效率 [3][4] 市场表现与生态 - 昇思MindSpore于2020年3月28日开源,下载量超过1300万,覆盖全球156个国家和地区 [2] - 社区贡献者超过5.2万,合入请求超过12万,支持25+系列大模型,拥有2000+社区合作伙伴和3100+行业应用实践 [2] - 该框架支撑近2500个学术论文创新,在所有AI框架中排名中国第一、全球第二 [2]
昇腾“淬火金种子”广深专场激活开发者创新血脉
环球网· 2025-12-04 16:58
昇腾AI生态建设与赋能活动 - 华为昇腾生态通过“淬火金种子”伙伴能力提升培训广深专场,对生态伙伴进行技术赋能,活动吸引38家伙伴的132位AI开发者通过线上线下方式参训[1] - 培训聚焦AI技术实操与生态共建,覆盖底层架构、模型应用、编程实战全维度技术内容[1] 华为昇腾生态策略与成果 - 公司生态策略为“硬件开放、软件开源、使能伙伴、发展人才”[1] - 生态成果包括联合60多家硬件伙伴发布150多款硬件产品,携手2900多家行业伙伴孵化6700多个行业解决方案,与主要客户/伙伴合作推动50多个基础模型基于昇腾高效开发[1] 培训具体技术内容 - 首日内容聚焦AI应用开发与优化,介绍昇腾基础软硬件平台架构,详解昇腾MindIE大模型推理引擎、vLLM Ascend昇腾插件及知识增强RAG SDK,并通过实操覆盖大模型部署、服务拉起及应用开发全流程[3] - 次日内容深耕大模型训练技术,围绕MindSpeed大模型分布式训练加速套件、昇思MindSpore全场景AI框架动态图能力及AscendCL编程语言展开,呈现大模型训练微调、强化学习及传统CV小模型落地的技术路径[5][6] - 第三日内容直击底层CANN算子编程能力,解读Ascend C编程语言以打造高性能算子,并介绍Triton算子编程语言以实现算子快速开发和跨平台高效迁移[8] 培训模式与反馈 - 活动打破传统单向培训模式,将“技术授课”、“开发者互动”和“需求共创”深度融合,每日课程均设置实操与答疑环节[10] - 现场开发者反馈积极,认为讲师专业、内容生动易懂、实操文档详尽,课程充实实用且能学以致用[10] 活动意义与未来展望 - 此次广深专场培训旨在帮助伙伴补齐技术断点,构建可“技术自闭环”的能力体系,加速产业链技术升级与创新[1] - 立足大湾区,昇腾将持续以开放姿态释放AI软硬件技术能力,用精准赋能破解产业落地痛点[13] - 未来昇腾将与伙伴及开发者并肩前行,让AI技术深度融入产业,加速智能升级,共筑自主创新的智能底座[15]
华为突破制裁的密码,藏在“384超节点”中
虎嗅APP· 2025-06-17 18:55
核心观点 - 华为通过系统工程创新弥补芯片工艺落后问题,推出"昇腾 CloudMatrix 384超节点"算力集群解决方案,性能超越英伟达B200 NVL 72平台 [3][4] - 公司采用"以非摩尔补摩尔、以集群补单芯片"策略,通过全互联对等架构和全局资源调度实现算力突破 [3][4][8] - 昇腾生态通过兼容主流框架和推出迁移工具逐步解决"易用性"问题,并计划开源盘古模型技术代码 [12][13] 技术突破 架构设计 - 采用全对等高速互联架构,通信带宽提升15倍,单跳时延从2微秒降至200纳秒 [8] - 实现全局内存统一编址,支持跨节点直接内存访问,优化大模型训练中的参数同步效率 [8] - 细粒度动态切分技术将计算与通信耗时比从1:1提升至3:1,针对MoE模型专家分布优化资源分配 [8] 协同创新 - 集结超万人团队跨部门作战,整合硬件工程、基础软件等领域积累实现技术协同 [9][10] - 利用自研400G光模块和OXC技术解决大规模集群互联问题 [9] - 内部"技术飞轮"机制通过基础大模型研发反哺算力底座优化 [10] 性能表现 - 384颗昇腾芯片提供300 PFLOPs稠密BF16算力,超越英伟达B200 NVL 72平台的180 PFLOPs [3] - 盘古Ultra MoE准万亿模型和Pro MoE模型在SuperCLUE榜单取得百亿模型榜首成绩 [10] - 大模型训练故障恢复时间从小时级缩短至分钟级 [13] 生态建设 - CANN异构计算架构兼容PyTorch/TensorFlow等主流框架 [12] - 昇思MindSpore推出MSAdaptor迁移工具,保持与PyTorch API一致性 [12] - 组建"小巧灵突击队"深入关基行业提供现场支持 [13]
从开源共建到生态繁荣:昇思MindSpore支持Day0迁移、一键部署
财联社· 2025-06-12 18:59
大模型技术发展趋势 - 大模型参数规模从十亿级跃升至万亿级,模型结构从稠密到稀疏,应用范式走向多模态和Agent [1] - 昇腾开发者核心诉求是如何在昇腾上快速使能和体验多种模型与技术 [1] 昇思MindSpore的核心挑战与解决方案 迁移挑战 - 实现三方框架模型"零成本"迁移,避免重复造轮子,同时模型精度完全对齐 [1] - 通过MindSpeed/Megatron桥接层实现PyTorch模型零代码迁移,训练脚本可直接运行 [4] - 动态图能力重构让PyTorch开发者获得"原生体验",MSAdapter工具自动转换95%以上接口 [4] - 主流模型如DeepSeek、Pangu等迁移损耗逼近于零 [4] 性能优化 - 动态图编译优化:多级流水线+即时编译(JIT),单卡训练效率提升40% [4] - 分布式智能调优:自动负载均衡工具解决万卡训练"木桶效应",线性度突破96% [4] - 逐层精度对齐:在昇腾硬件上实现主流模型逐层0误差 [4] 推理部署优化 - 支持HuggingFace模型半小时部署上线,通过vLLM-MindSpore插件实现分钟级服务化 [6] - 支持业界主流模型开箱即用,DeepSeek、Pangu、Qwen等20+模型已上线 [6] - 权重加载耗时降低80%(百亿模型小于30秒),图编译时延压缩至毫秒级 [6] 开源生态建设 - 昇思MindSpore累计获得1200万次下载,开发者遍布130个国家和地区,覆盖2400座城市 [7] - 超过四万六千名开发者参与,11万+行代码合入请求,1700多篇学术成果 [7] - 提供免费算力平台(MindSpore大模型平台),20+技术SIG组覆盖AI前沿领域 [8] 未来展望 - AI软件基座将属于开源开放与极简高效共舞的时代 [8]