Workflow
NVIDIA Rubin platform
icon
搜索文档
DDN Powers Integrated Compute, Data, and Offload at Scale for NVIDIA Rubin Platform
Businesswire· 2026-01-07 00:00
公司与行业合作 - DDN作为全球领先的AI数据平台提供商,宣布与NVIDIA深化合作,以支持NVIDIA在CES 2026上发布的下一代AI工厂架构,包括NVIDIA Rubin平台和NVIDIA BlueField-4 DPU [1] - 此次合作旨在通过消除限制性能、利用率和实现价值时间的数据瓶颈,帮助企业及超大规模数据中心更快地实现大规模AI的运营化 [1] AI行业发展趋势与挑战 - 生成式AI和智能体AI工作负载正向百万令牌上下文窗口、分布式推理和数据密集型推理演进,企业发现仅靠原始计算能力已不足够 [2] - 业务成果现在取决于数据在GPU、DPU、网络和存储之间移动、缓存、保护和提供服务的效率 [2] - AI正从实验阶段转向生产阶段,企业必须在性能与治理、安全及运营效率之间取得平衡 [6] 技术架构与创新 - NVIDIA Rubin平台代表了一个根本性转变,从以加速器为中心的设计转向采用协同设计、紧密集成CPU、GPU、DPU、NVLink交换结构和高速Spectrum-X以太网网络的机架级AI工厂架构 [4] - BlueField-4通过将网络、存储、安全和基础设施服务从主机CPU卸载,扩展了此架构,为大规模AI创建了一个可编程的操作层 [4] - BlueField-4数据存储处理器驱动了一个新的快速、高效的KV缓存存储层,以扩展AI工厂的长记忆推理能力 [4] - DDN确保其AI数据智能平台经过设计,能原生运行于此统一技术栈中,将架构创新转化为实际成果 [5] 解决方案与性能优势 - DDN平台与NVIDIA最新的硬件和软件创新对齐,包括用于存储的NVIDIA Spectrum-X以太网以及BlueField-4上由NVIDIA DOCA加速的服务 [5] - DDN是全球超过1,000,000个GPU的驱动者,服务于要求最严苛的AI和HPC环境,确保模型在规模、复杂性和并发性增长时性能保持一致 [5] - 合作带来的可衡量影响包括:在大规模AI环境中实现高达99%的GPU利用率;针对长上下文推理工作负载,首次令牌时间减少20–40%;通过简化、集成的数据管道加快模型部署时间;通过减少CPU负载和消除低效数据移动来降低基础设施开销;以线速为高密度Rubin GPU配置提供艾级数据访问;支持NVIDIA推理上下文内存存储平台的分布式KV缓存分层,在保持超低延迟的同时将推理上下文扩展到GPU内存之外;利用BlueField-4加速引擎进行元数据处理、遥测和控制平面操作的网络集成存储服务;动态的、遥测驱动的数据放置,以在工作负载实时变化时优化性能 [7] 数据管理与安全 - 通过集成的数据智能和BlueField-4卸载能力,客户可以:端到端保护静态和传输中的AI数据安全;在共享的AI基础设施上强制执行多租户隔离;实时了解数据访问模式和性能瓶颈;通过统一的观测性和访问智能,将审计和合规准备时间减少高达70% [11] 合作愿景与行业影响 - DDN与NVIDIA的合作专注于一个单一目标:确保由NVIDIA Rubin和BlueField-4驱动的全球最先进AI平台能够以全速、全规模和可预测的性能获得数据供给 [3] - 当内置数据智能时,客户可以看到更高的GPU利用率、更快的推理速度和显著降低的运营摩擦 [3] - AI基础设施的未来是跨计算、网络和数据的统一,NVIDIA Rubin和BlueField-4平台体现了这一转变,而DDN的AI数据智能平台确保数据成为竞争优势而非制约因素 [8] - 通过与NVIDIA合作,DDN正在帮助客户将AI基础设施转变为AI工厂——这些系统不仅用于计算,更是为了更快、大规模且可靠地交付业务成果而设计 [9]
CoreWeave Extends Its Cloud Platform with NVIDIA Rubin Platform
Businesswire· 2026-01-06 07:00
公司动态 - CoreWeave公司宣布将在其AI云平台上增加英伟达Rubin技术 以扩展其解决方案范围 服务于构建和部署智能体AI、推理及大规模推理工作负载的客户 [1] - 公司预计将成为首批在2026年下半年部署英伟达Rubin平台的云服务提供商之一 此举旨在为客户提供更大的灵活性和选择 [1] 行业技术发展 - 行业正致力于通过集成如英伟达Rubin等先进技术来增强AI云平台的能力 以满足日益增长的复杂AI工作负载需求 [1]
Red Hat Expands Collaboration with NVIDIA to Pair Enterprise Open Source with Rack-Scale AI for Faster, Production-Ready Innovation
Businesswire· 2026-01-06 07:00
RALEIGH, N.C.--(BUSINESS WIRE)--Red Hat, the world's leading provider of open source solutions, today announced a landmark expansion of its collaboration with NVIDIA to align enterprise open source technologies to the rapidity of enterprise AI evolution and rack-scale AI advances. As the industry moves beyond individual servers toward unified, high-density systems, Red Hat aims to deliver the starting point for this transformation with Red Hat Enterprise Linux for NVIDIA, a specialized edition of the world' ...
NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer
Globenewswire· 2026-01-06 06:20
产品发布与核心定位 - NVIDIA于2026年1月5日在CES上正式推出下一代AI平台Rubin,该平台包含六款新芯片,旨在以最低成本构建、部署和保护全球最大、最先进的AI系统,加速AI主流化进程 [2] - Rubin平台通过六款芯片的极端协同设计,大幅缩短训练时间并降低推理token成本,这六款芯片包括NVIDIA Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机 [3] - 公司创始人兼CEO黄仁勋表示,Rubin平台在AI训练和推理需求激增的时刻适时推出,凭借每年发布新一代AI超级计算机的节奏和六芯片的极端协同设计,Rubin向AI下一个前沿领域迈出了一大步 [4] 性能突破与技术创新 - 与上一代Blackwell平台相比,Rubin平台将推理token成本降低高达10倍,训练MoE模型所需的GPU数量减少4倍 [5][8] - Rubin平台引入了五项创新技术,包括第六代NVLink互连技术、Transformer Engine、机密计算、RAS Engine以及NVIDIA Vera CPU,这些突破将加速智能体AI、高级推理和大规模专家混合模型推理 [5] - 第六代NVLink技术为大规模MoE模型提供快速无缝的GPU间通信,每个GPU提供3.6TB/s带宽,而Vera Rubin NVL72机架提供260TB/s带宽,超过整个互联网的带宽 [10] - Rubin GPU采用第三代Transformer Engine,具备硬件加速自适应压缩功能,可为AI推理提供50 petaflops的NVFP4计算能力 [20] - Spectrum-X以太网光子共封装光学交换系统为AI应用提供10倍可靠性和5倍正常运行时间,同时实现5倍能效提升 [19] 生态系统与合作伙伴支持 - 全球领先的AI实验室、云服务提供商、计算机制造商和初创公司预计将采用Rubin平台,包括AWS、Anthropic、谷歌、Meta、微软、OpenAI、甲骨文等超过25家行业巨头 [6] - OpenAI CEO Sam Altman表示,智能随算力扩展,Rubin平台有助于持续扩展这一进程,让先进智能惠及所有人 [7] - 微软下一代Fairwater AI超级工厂将采用NVIDIA Vera Rubin NVL72机架级系统,规模将扩展至数十万个NVIDIA Vera Rubin超级芯片 [8] - CoreWeave、AWS、谷歌云、微软和OCI等云提供商将于2026年下半年率先部署基于Vera Rubin的实例 [22] - 思科、戴尔、HPE、联想和超微等公司预计将提供基于Rubin产品的各类服务器 [25] - Anthropic、Meta、Mistral AI、OpenAI、xAI等AI实验室期待利用Rubin平台以更低的延迟和成本训练更强大模型,并服务长上下文、多模态系统 [26] 产品形态与系统设计 - Rubin平台提供两种主要形态:NVIDIA Vera Rubin NVL72机架级解决方案和NVIDIA HGX Rubin NVL8系统 [4] - Vera Rubin NVL72是一个统一的系统,结合了72个Rubin GPU、36个Vera CPU、NVLink 6、ConnectX-9 SuperNIC和BlueField-4 DPU [15] - HGX Rubin NVL8是一个服务器板,通过NVLink连接八个Rubin GPU,支持基于x86的生成式AI平台,加速AI和高性能计算工作负载的训练、推理和科学计算 [16] - NVIDIA DGX SuperPOD可作为大规模部署Rubin系统的参考架构,集成DGX Vera Rubin NVL72或DGX Rubin NVL8系统以及BlueField-4 DPU、ConnectX-9 SuperNIC等组件 [17] 关键组件与新增功能 - NVIDIA Vera CPU专为智能体推理设计,采用88个NVIDIA定制Olympus核心,是大型AI工厂能效最高的CPU [20] - Rubin平台首次在机架级平台提供NVIDIA机密计算,保护全球最大的专有模型及训练和推理工作负载 [20] - 第二代RAS Engine具备实时健康检查、容错和主动维护功能,其模块化无缆托盘设计使组装和维护速度比Blackwell快18倍 [20] - NVIDIA推出全新的AI原生存储基础设施“推理上下文内存存储平台”,由BlueField-4驱动,旨在实现千兆级别的推理上下文扩展 [12] - BlueField-4还引入了高级安全可信资源架构,为AI基础设施构建者提供单一可信控制点,以安全配置、隔离和操作大规模AI环境 [13] 生产与上市时间 - NVIDIA Rubin已进入全面生产阶段,基于Rubin的产品将于2026年下半年通过合作伙伴上市 [22] - CoreWeave将于2026年下半年开始将基于NVIDIA Rubin的系统集成到其AI云平台中 [24]