Workflow
NVIDIA Vera Rubin NVL144 CPX平台
icon
搜索文档
刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿
猿大侠· 2025-09-11 12:11
产品发布与性能突破 - NVIDIA推出专为大规模上下文推理设计的全新GPU Rubin CPX 开创全新处理器类别[1][7][11] - Rubin CPX性能达Vera Rubin NVL144平台的2倍多 是Blackwell Ultra的GB300 NVL72机架系统的7.5倍[3] - 单机架提供8 EFLOPS NVFP4计算力 配备100TB高速内存与1.7 PB/s内存带宽[3][31] - 相比GB300 NVL72系统 注意力机制处理能力提升3倍[4][34] - 配备128GB高性价比GDDR7显存 单个GPU提供30 petaflops NVFP4计算能力[3][33] 技术架构与创新 - 基于Rubin架构构建 是首款专为海量上下文AI打造的CUDA GPU 支持百万Token级推理[8][9][10] - 采用解耦式推理创新 使上下文阶段(计算受限)与生成阶段(内存带宽受限)独立处理[15][16] - 依托Vera Rubin NVL144 CPX平台 与Vera CPU及Rubin GPU协同工作[10][23] - 支持多步推理、持久化记忆与长时程上下文 适用于软件开发、视频生成及深度研究领域[10] - 通过NVIDIA Dynamo平台实现低时延KV缓存传输、路由及内存管理的精确协调[18][19] 商业价值与投资回报 - 每投入1亿美元资本性支出最高可带来50亿美元Token收入[6][26] - 在规模化场景下可提供30-50倍投资回报率(ROI)[14][25] - 重写推理经济 提升吞吐量并降低时延 增强整体资源利用率[14][16][24] 平台配置与扩展性 - Vera Rubin NVL144 CPX平台单机架集成144块Rubin CPX GPU、144块Rubin GPU及36颗Vera CPU[31] - 支持多种形态配置 包括与InfiniBand网络或Spectrum-X以太网平台结合实现大规模部署[35] - 基于MGX架构实现机架级部署 具备极高算力与能效比[30] 生态系统支持 - 获得完整NVIDIA AI全栈支持 包括AI Enterprise软件平台与NIM微服务[37][38] - 可运行Nemotron多模态模型家族 支持CUDA-X库及近6000个CUDA应用[38] - 预计2026年底上市 目前已有Cursor、Runway等AI企业探索应用加速可能性[12][37]
英伟达下一代GPU登场,Rubin CPX一次推理数百万Token,网友:这是头野兽
机器之心· 2025-09-10 16:14
英伟达Rubin CPX GPU产品发布 - 公司宣布推出专为超过100万token长上下文推理设计的新GPU Rubin CPX [1] - 该GPU旨在提升软件开发、视频生成等长上下文任务的性能 [2] - 新产品将与NVIDIA Vera CPU和Rubin GPU共同组成Vera Rubin NVL144 CPX平台 [5] Vera Rubin NVL144 CPX平台技术规格 - 集成式MGX系统在单机架内可提供8 exaflops AI算力 [5] - 平台AI性能是NVIDIA GB300 NVL72系统的7.5倍 [5] - 系统配备100TB高速内存和1.7 PB/s内存带宽 [5] Rubin CPX技术特性与突破 - GPU基于Rubin架构采用单片设计,内置NVFP4计算资源并针对AI推理优化 [14] - 采用NVFP4精度可提供高达30 petaflops算力,并配备128GB GDDR7内存 [14] - 与GB300 NVL72系统相比,注意力处理能力提升3倍 [14] 行业应用与合作伙伴评价 - Cursor CEO表示该技术将实现极速代码生成和深度开发者洞察,重塑软件创作方式 [16] - Runway CEO认为性能飞跃将为长上下文和智能体驱动创作流程提供支持 [16] - 新技术预计将于2026年底上市 [17] 英伟达AI基础设施技术框架 - 公司SMART框架强调采用全栈解耦式基础设施,实现计算与内存资源高效调配 [11] - 推理过程分为计算密集的上下文处理与受内存带宽限制的内容生成两个阶段 [11] - 解耦式推理架构使两个阶段能独立处理,提升系统吞吐量并降低延迟 [11]