公司与行业合作 - DDN作为全球领先的AI数据平台提供商,宣布与NVIDIA深化合作,以支持NVIDIA在CES 2026上发布的下一代AI工厂架构,包括NVIDIA Rubin平台和NVIDIA BlueField-4 DPU [1] - 此次合作旨在通过消除限制性能、利用率和实现价值时间的数据瓶颈,帮助企业及超大规模数据中心更快地实现大规模AI的运营化 [1] AI行业发展趋势与挑战 - 生成式AI和智能体AI工作负载正向百万令牌上下文窗口、分布式推理和数据密集型推理演进,企业发现仅靠原始计算能力已不足够 [2] - 业务成果现在取决于数据在GPU、DPU、网络和存储之间移动、缓存、保护和提供服务的效率 [2] - AI正从实验阶段转向生产阶段,企业必须在性能与治理、安全及运营效率之间取得平衡 [6] 技术架构与创新 - NVIDIA Rubin平台代表了一个根本性转变,从以加速器为中心的设计转向采用协同设计、紧密集成CPU、GPU、DPU、NVLink交换结构和高速Spectrum-X以太网网络的机架级AI工厂架构 [4] - BlueField-4通过将网络、存储、安全和基础设施服务从主机CPU卸载,扩展了此架构,为大规模AI创建了一个可编程的操作层 [4] - BlueField-4数据存储处理器驱动了一个新的快速、高效的KV缓存存储层,以扩展AI工厂的长记忆推理能力 [4] - DDN确保其AI数据智能平台经过设计,能原生运行于此统一技术栈中,将架构创新转化为实际成果 [5] 解决方案与性能优势 - DDN平台与NVIDIA最新的硬件和软件创新对齐,包括用于存储的NVIDIA Spectrum-X以太网以及BlueField-4上由NVIDIA DOCA加速的服务 [5] - DDN是全球超过1,000,000个GPU的驱动者,服务于要求最严苛的AI和HPC环境,确保模型在规模、复杂性和并发性增长时性能保持一致 [5] - 合作带来的可衡量影响包括:在大规模AI环境中实现高达99%的GPU利用率;针对长上下文推理工作负载,首次令牌时间减少20–40%;通过简化、集成的数据管道加快模型部署时间;通过减少CPU负载和消除低效数据移动来降低基础设施开销;以线速为高密度Rubin GPU配置提供艾级数据访问;支持NVIDIA推理上下文内存存储平台的分布式KV缓存分层,在保持超低延迟的同时将推理上下文扩展到GPU内存之外;利用BlueField-4加速引擎进行元数据处理、遥测和控制平面操作的网络集成存储服务;动态的、遥测驱动的数据放置,以在工作负载实时变化时优化性能 [7] 数据管理与安全 - 通过集成的数据智能和BlueField-4卸载能力,客户可以:端到端保护静态和传输中的AI数据安全;在共享的AI基础设施上强制执行多租户隔离;实时了解数据访问模式和性能瓶颈;通过统一的观测性和访问智能,将审计和合规准备时间减少高达70% [11] 合作愿景与行业影响 - DDN与NVIDIA的合作专注于一个单一目标:确保由NVIDIA Rubin和BlueField-4驱动的全球最先进AI平台能够以全速、全规模和可预测的性能获得数据供给 [3] - 当内置数据智能时,客户可以看到更高的GPU利用率、更快的推理速度和显著降低的运营摩擦 [3] - AI基础设施的未来是跨计算、网络和数据的统一,NVIDIA Rubin和BlueField-4平台体现了这一转变,而DDN的AI数据智能平台确保数据成为竞争优势而非制约因素 [8] - 通过与NVIDIA合作,DDN正在帮助客户将AI基础设施转变为AI工厂——这些系统不仅用于计算,更是为了更快、大规模且可靠地交付业务成果而设计 [9]
DDN Powers Integrated Compute, Data, and Offload at Scale for NVIDIA Rubin Platform