Workflow
算力资源浪费
icon
搜索文档
对标英伟达 华为开源AI容器技术Flex:ai 它可使算力平均利用率提升30%
每日经济新闻· 2025-11-21 23:08
行业背景与问题 - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低问题凸显,表现为小模型任务独占整卡导致资源闲置、大模型任务单机算力不足、大量通用服务器算力处于"休眠"状态 [1] - 供需错配造成资源浪费成为产业发展的关键桎梏 [1] 华为Flex:ai技术发布与特点 - 华为公司副总裁周跃峰在2025AI容器应用落地与发展论坛上发布AI容器技术Flex:ai [1] - Flex:ai通过算力切分技术将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10% [1] - 该技术实现单卡同时承载多个AI工作负载,在无法充分利用整卡算力的场景下,算力资源平均利用率可提升30% [1] - 在先进制程受限、单颗AI芯片性能与国外存在差距的现实中,Flex:ai延续了华为"以软件补硬件"的发展路径 [1] 与竞争对手Run:ai的对比 - 华为Flex:ai对标英伟达2024年底收购的以色列公司Run:ai [2] - Run:ai核心产品是基于Kubernetes的软件平台,可通过动态调度、池化和分片优化GPU资源使用,例如帮助Wayve公司将GPU集群效率从不足25%提升到80%以上 [2] - Flex:ai同样聚焦于通过软件创新实现对英伟达、昇腾等第三方算力的统一管理与调度,屏蔽底层硬件差异 [2] - 相比Run:ai主要服务于英伟达GPU生态,Flex:ai没有生态限制,支持英伟达GPU和华为昇腾NPU等算力卡 [2] 技术应用验证与行业趋势 - Flex:ai能力在瑞金医院联合打造的多模态病理大模型"RuiPath"中得到验证,该模型基于103万张病理切片数据训练,仅用16张昇腾910B算力卡完成大规模训练 [3] - Flex:ai通过算力资源切分、智能任务调度等技术,将XPU资源可用度从40%提升至70% [3] - Gartner预测到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行 [3] 开源策略与生态建设 - Flex:ai将在发布后同步开源在魔擎社区中 [3] - 该技术将与华为此前开源的多款AI工具共同组成完整的ModelEngine开源生态 [3]