算力资源利用
搜索文档
破解算力资源利用难题,华为联合三大高校发布并开源AI容器技术
观察者网· 2025-11-24 10:05
华为数据存储产品线总裁周跃峰 针对大量通用服务器因缺乏智能计算单元而无法服务于AI工作负载的问题,华为与厦门大学联合研发跨节点拉远虚拟化技术。该技术将集群内各节点的空 闲XPU算力聚合形成"共享算力池",一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网 络,将AI工作负载转发到远端"资源池"中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。 当前,AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显,"算力资源浪费"成为产业发展的关键桎梏:小模型任务独占整卡导 致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力"休眠"状态,供需错配造成严重的资源浪费。 面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造Hi Scheduler智能调度器。该调度器可自动感知集群负载 与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资 源。即便在负载频繁波动的场景下,也能保 ...
华为发布AI新技术
证券时报· 2025-11-21 20:05
技术发布与开源 - 公司于2025AI容器应用落地与发展论坛上正式发布AI容器技术Flex:ai,并宣布联合上海交通大学、西安交通大学与厦门大学将此项产学合作成果向外界开源 [1] - 发布的Flex:ai XPU池化与调度软件基于Kubernetes容器编排平台构建,旨在通过对GPU、NPU等智能算力资源的精细化管理与智能调度,提升算力利用率 [1] 核心技术突破一:算力资源切分 - 实现算力资源切分,可将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,使单卡能同时承载多个AI工作负载 [2] - 该技术通过弹性灵活的资源隔离,实现算力单元的按需切分,在此类场景下整体算力平均利用率提升30% [2] 核心技术突破二:跨节点算力资源聚合 - 研发跨节点拉远虚拟化技术,将集群内各节点的空闲XPU算力聚合形成“共享算力池”,为高算力需求的AI工作负载提供支撑 [2] - 该技术可使不具备智能计算能力的通用服务器通过高速网络,将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,促进通用算力与智能算力资源融合 [2] 核心技术突破三:多级智能调度 - 打造Hi Scheduler智能调度器,可自动感知集群负载与资源状态,结合AI工作负载的多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度 [3] - 调度器实现AI工作负载分时复用资源,在负载频繁波动的场景下也能保障AI工作负载平稳运行 [3] 行业背景与影响 - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低,“算力资源浪费”成为产业发展关键桎梏,具体表现为小模型任务独占整卡导致资源闲置,大模型任务单机算力不足,大量缺乏GPU/NPU的通用服务器算力“休眠” [1] - Flex:ai的全面开源旨在向产学研各界开发者开放所有核心技术能力,推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案 [3]
华为发布AI新技术
证券时报· 2025-11-21 20:03
文章核心观点 - 华为公司发布并开源AI容器技术Flex:ai 旨在通过算力资源池化与智能调度解决全球算力资源利用率偏低的行业痛点 提升AI工作负载与算力资源的匹配效率 [1][2] 技术发布与产学合作 - 华为公司副总裁周跃峰在2025AI容器应用落地与发展论坛上正式发布AI容器技术Flex:ai [1] - 华为联合上海交通大学、西安交通大学与厦门大学共同宣布将此项产学合作成果向外界开源 [1] - 该技术深度融合三大高校与华为的科研力量 实现三大核心技术突破 [2] 行业背景与问题 - AI产业高速发展催生海量算力需求 但全球算力资源利用率偏低的问题日益凸显 [2] - 算力资源浪费成为产业发展的关键桎梏 具体表现为小模型任务独占整卡导致资源闲置 大模型任务单机算力不足 大量缺乏GPU/NPU的通用服务器处于算力休眠状态 [2] - 供需错配造成严重的资源浪费 [2] Flex:ai核心技术突破 - 算力资源切分技术由华为与上海交通大学联合研发 可将单张GPU或NPU算力卡切分为多份虚拟算力单元 切分粒度精准至10% [2] - 该技术实现单卡同时承载多个AI工作负载 整体算力平均利用率提升30% [2] - 跨节点算力资源聚合技术由华为与厦门大学联合研发 将集群内各节点的空闲XPU算力聚合形成共享算力池 [3] - 该技术可为高算力需求的AI工作负载提供支撑 并让通用服务器通过高速网络将AI工作负载转发到远端资源池中的GPU/NPU算力卡中执行 [3] - 多级智能调度技术由华为与西安交通大学共同打造 通过Hi Scheduler智能调度器自动感知集群负载与资源状态 对本地及远端的虚拟化GPU、NPU资源进行全局最优调度 [3] 技术基础与开源影响 - Flex:ai XPU池化与调度软件基于Kubernetes容器编排平台构建 通过对GPU、NPU等智能算力资源的精细化管理与智能调度实现精准匹配 [2] - 全面开源开放将向产学研各界开发者开放所有核心技术能力 [4] - 开源旨在汇聚全球创新力量 共同推动异构算力虚拟化与AI应用平台对接的标准构建 形成算力高效利用的标准化解决方案 [4]
华为将发布“突破性AI技术”,有望大幅提升算力资源利用率
选股宝· 2025-11-17 07:44
华为AI技术突破 - 华为将于11月21日发布AI领域突破性技术,旨在解决算力资源利用效率难题 [1] - 新技术通过软件创新将GPU、NPU等算力资源利用率从行业平均的30%至40%显著提升至70% [1] - 该技术实现英伟达、昇腾及其他三方算力的统一资源管理与利用,屏蔽硬件差异,为AI训练推理提供更高效资源支撑 [1] 华为AI芯片规划 - 华为发布未来三年AI芯片规划,包括950PR/950DT、960和970三个系列产品 [1] - 950PR系列将于明年一季度落地,支持FP8/MXFP8/HIF8/MXFP4数据类型 [1] - 950PR系列互联带宽提升至2TB/s,算力提升至1PFLOPSFP8、2PFLOPSFP4 [1] 软硬件生态协同 - DeepSeek使用UE8M0 FP8 Scale参数精度,并明确表示该精度针对即将发布的下一代国产芯片设计 [1] - 表明DeepSeek与国产芯片厂商之间存在深度技术合作和生态协同 [1] - 软硬件协同优化将提升国产算力的整体竞争力 [1] 算力架构趋势 - 未来GPU或不再是算力竞逐核心,超节点规模将是算力世界决胜场 [2] - 通过Scale-up获得远超Scale-out的卡间互联带宽,超大规模超节点是大模型训练最理想工具 [2] - 英伟达展出72卡、144卡、576卡超节点路径,华为亮相384卡、8192卡、15488卡超节点方案 [2] 算力采购模式变革 - 超节点将成为算力主流形态,未来算力需求方采购将以超节点为单位,而非GPU卡 [2] - 国产算力拥有万卡规模等级超节点后,国产大模型将真正拥有训练利器,极大提升训练效率 [2] - 机构看好明年国产大模型与中国AI资本开支双双爆发,国产算力开启繁荣增长 [2] 相关合作公司 - 拓维信息为华为"云+鲲鹏/昇腾AI+行业大模型+开源鸿蒙"领域全方位战略合作伙伴 [3] - 拓维信息在多个领域推出基于开源鸿蒙的创新解决方案及软硬一体化设备 [3] - 华丰科技作为高速线模组供应商,深度绑定国内头部AI服务器厂商,与华为、中兴、阿里等客户建立合作关系 [3]