核心观点 - 软银公司发布了由Infrinia团队开发的Infrinia AI Cloud OS,这是一个专为AI数据中心定制的强大软件栈,旨在成为连接AI数据中心、企业、服务提供商和开发者的核心,以支持AI在社会中的大规模部署 [1][8] 产品能力与优势 - Infrinia AI Cloud OS为AI数据中心运营商提供两大核心服务能力:多租户环境下的Kubernetes即服务(KaaS)以及通过API提供大语言模型推理的推理即服务(Inf-aaS)[2] - 该软件栈可集成到运营商各自的GPU云服务中,相比定制化或内部开发方案,预计能降低总拥有成本并简化运营复杂性 [2] - 该解决方案支持从模型训练到推理的整个AI生命周期,帮助提供商更快速地部署GPU云服务 [2][11] 公司战略与市场定位 - 软银的初始策略是将Infrinia AI Cloud OS整合到其自身的GPU云服务产品中 [3] - 未来,Infrinia团队计划将该软件部署扩展到海外数据中心和云平台,以实现全球范围内的采用 [3] - 公司旨在通过新的GPU云服务和软件业务,提供社会大规模部署AI所需的关键能力 [8] 市场需求与行业背景 - 生成式AI、自主机器人、仿真、药物发现和材料科学等多个领域对GPU加速的AI计算需求正在迅速增长 [4] - 用户对AI计算的需求变得多样且复杂,包括对完全托管的基础设施、经济高效的推理服务以及集中训练与边缘推理的先进运营模式的需求 [4] - 构建和运营满足这些需求的环境对GPU云服务提供商提出了重大挑战,需要深厚的技术知识并涉及复杂的操作流程 [5] 技术细节 - 该软件栈的KaaS功能可在先进的GPU平台(如NVIDIA GB200 NVL72)上自动化整个基础设施层,涵盖从BIOS、RAID配置到操作系统、GPU驱动、网络、Kubernetes控制器和存储 [6] - 支持软件定义的、按需物理连接和内存重构,允许根据特定AI工作负载需求创建、修改或删除集群 [6] - 基于GPU邻近性和NVIDIA NVLink域的自动节点分配,可减少延迟并增强大规模分布式工作负载的GPU间带宽 [6] - Inf-aaS组件旨在让用户轻松部署推理工作负载,通过托管服务提供可扩展且高效的AI模型推理访问 [7]
SoftBank Innovates AI Infrastructure with Launch of Infrinia Cloud OS: A Game-Changer for GPU Cloud Services