核心观点 - 华为发布AI容器技术Flex:ai,可将AI工作负载场景下的算力资源平均利用率提升30% [2] - 该技术将同步开源至魔擎社区,旨在构建完整的ModelEngine开源生态并加速AI行业化落地 [2][18] 技术定位与行业背景 - 在大模型时代,容器技术与AI是天然搭档,可将模型代码、运行环境打包成独立镜像,实现跨平台无缝迁移 [5] - 第三方机构数据显示,预计到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行 [6] - 传统容器技术已无法完全满足AI工作负载需求,AI时代需要专用的AI容器技术 [6] 关键能力 - Flex:ai具备三大关键能力:算力资源切分、多级智能调度、跨节点算力资源聚合 [7] - 在算力资源切分方面,可将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,实现单卡同时承载多个AI工作负载 [7] - 通过智能调度技术,可自动感知集群负载与资源状态,结合工作负载优先级、算力需求等参数,进行全局最优调度 [11] 核心优势 - 相比英伟达Run:ai,Flex:ai具备两大独特优势:虚拟化与智能调度 [11] - 独有的"拉远虚拟化"技术可将集群内各节点的空闲XPU算力聚合形成"共享算力池",为高算力需求工作负载提供支撑 [11] - 智能调度技术可确保高优先级任务获得更高性能算力支持,在资源占满时可抢占其他任务资源以保障最重要任务完成 [12] 生态构建与行业影响 - Flex:ai的开源将助力华为构建完整的ModelEngine开源生态,该生态包含Nexent智能体框架、AppEngine、DataMate、UCM等AI工具 [15] - 开源的Flex:ai可提供提升算力资源利用率的基础能力及优秀实践案例,与业界共同探索行业场景落地 [18] - 通过产学研开发者参与,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案 [18]
见证历史!华为,重大发布
中国基金报·2025-11-21 17:33