公司战略与投资 - 公司宣布收购数千块英伟达Blackwell GPU以增强其全球分布式云基础设施 [1] - 此次部署旨在创建一个统一的人工智能研发、微调和训练后优化平台 [1] - 该架构通过减少与集中式数据中心相关的延迟和数据出口问题,旨在支持快速推理 [1] - 公司采用Blackwell GPU推进了其构建面向推理时代的全球分布式人工智能计算网格的愿景 [3] - 公司将根据其云基础设施战略,继续增加GPU容量 [6] 市场定位与行业趋势 - 行业已达到一个临界点,人工智能推理与训练变得同等重要 [2] - 第一波人工智能浪潮集中于中心化枢纽的模型训练 [2] - 56%的组织将延迟视为阻碍人工智能大规模部署的主要障碍 [2] - 超大规模云服务商继续突破人工智能训练的边界,而公司专注于满足推理时代的独特需求 [3] - 集中式人工智能工厂对于构建模型仍然至关重要,但要使这些模型大规模应用需要一个去中心化的神经系统 [3] 技术优势与解决方案 - 通过将全球视为一个单一的低延迟背板,公司正在弥合延迟差距,为物理人工智能和智能体人工智能提供基础架构 [2] - 通过在全球网络中分布针对推理优化的计算,公司不仅提供容量,还以最小延迟提供所需的规模 [3] - 将人工智能处理从集中式人工智能工厂扩展到高密度分布式基础设施,使人工智能能够与物理系统交互,不受传统云架构的地理或成本限制 [3] - 该平台将英伟达RTX PRO™服务器(配备英伟达RTX PRO™ 6000 Blackwell服务器版GPU)和英伟达BlueField-3 DPU与公司的分布式云计算基础设施及覆盖全球超过4,400个地点的边缘网络相结合 [6] - 公司的人工智能推理云将人工智能推理更靠近用户和设备,重新定义了人工智能的使用地点和方式 [4] 客户价值与性能提升 - 通过为平台工程师和开发人员提供工具,使其能在更靠近最终用户的地方构建和运行人工智能应用及数据密集型工作负载 [5] - 与传统的超大规模云服务商基础设施相比,使用英伟达人工智能基础设施可为企业节省高达86%的人工智能推理成本 [5] - 该方案可提供高达2.5倍的延迟降低,同时实现高吞吐效率 [5] - 集成英伟达Blackwell人工智能基础设施可实现:在专用GPU集群上处理人工智能工作负载以生成快速响应的可预测高性能推理;支持数据隐私和区域合规需求的现场大语言模型本地化微调;基于专有数据对基础模型进行微调和适配以提高特定任务准确性的模型训练后优化 [7]
Akamai to Deploy Thousands of NVIDIA Blackwell GPUs to Create One of the World’s Most Widely Distributed AI Platforms