NVIDIA Vera Rubin NVL144 CPX
搜索文档
7100亿,黄仁勋梭哈了
创业家· 2025-09-27 18:08
文章核心观点 - 当前人工智能行业的发展模式被比喻为“梯云纵”,即通过行业内巨头间深度绑定、相互投资与合作的循环方式实现增长,呈现出“左脚踩右脚”式的自我驱动态势 [6] - 行业参与者通过缔结深度合作关系来应对商业化路径尚未完全跑通的挑战,动辄千亿美元级别的投资反映了对未来的强烈预期,但也引发了对这种增长模式可持续性的疑问 [22][24] 英伟达与OpenAI的战略合作 - 英伟达宣布向OpenAI投资1000亿美元(约合人民币7100亿元),以支持其下一代AI基础设施建设,此举刷新了人工智能赛道的最高投资纪录 [6] - 合作核心是英伟达将协助OpenAI打造一个算力达到10千兆瓦的AI数据中心,预计需要堆砌400万至500万台GPU,一期工程计划在2026年下半年完成 [12][13] - 该项目被英伟达定义为“人工智能史上最大的基建项目”,其规模是Meta在2024年12月宣布的巨型数据中心的至少5倍 [12][13] - 合作具有高度协同性,双方将共同优化OpenAI的模型、基础架构软件以及英伟达的硬件和软件产品开发路线,特别是针对计划于2026年发布的Vera Rubin超级芯片平台 [14] 人工智能行业的“千亿美元”交易潮 - 2025年内,人工智能赛道已出现至少5笔涉及1000亿美元规模的重大交易或投资计划,参与者高度重合,交易方向均集中于AI基础设施 [18] - 除英伟达与OpenAI的合作外,其他重大交易包括:OpenAI、甲骨文和软银在德克萨斯州共建数据中心;英伟达和xAI参与规模千亿美元的MGX基金;谷歌与Meta签署为期6年、价值千亿美元的服务合同;以及甲骨文与OpenAI签署的为期五年、总价约3000亿美元的合作 [18][19] - 这一系列交易表明行业巨头间形成了深度交织的合作网络,引发了市场对于千亿美元级投资是基于未来共识还是资本互抬轿子的疑问 [19][22] OpenAI的财务状况与增长模式 - OpenAI的年度经常性收入在2025年达到100亿美元,较上一年度的55亿美元实现近乎翻倍增长 [23] - 高收入增长伴随高投入,公司2024年运营成本为50亿美元,2025年预计将增至80亿美元,呈现出高投入换高增长的模式 [23] - 公司人力成本高昂,工程师平均年薪在80万至100万美元之间,并且通过收购(如以65亿美元收购io公司)和招募高端人才(如任命Vijaye Raji为CTO)持续加大投入 [23][24] - 公司面临巨大的增长压力,其当前的领先地位依赖于持续的高强度投入,一旦投入放缓可能面临危机 [24]
国泰海通:下一代英伟达Rubin CPX内存升级
格隆汇· 2025-09-12 07:15
行业趋势 - 供应商陆续推出AI高端芯片 内存升级助力DRAM量价齐升 [1][3] - 2024年Server DRAM单机平均容量年增17.3% [3] - AI服务器需求持续增加 云端服务业者自研ASIC陆续推出或开始量产 [3] 英伟达新产品 - 下一代英伟达旗舰AI服务器NVIDIA Vera Rubin NVL144 CPX集成36个Vera CPU和144块Rubin GPU [2] - 单个机架提供100 TB高速内存和1.7 PB/s内存带宽 [2] - 搭载Rubin CPX的Rubin机架处理大上下文窗口性能比当前旗舰机架GB300 NVL72高最多6.5倍 [2] - Rubin CPX专门针对"数百万tokens"级别长上下文性能优化 具备30peta FLOPs NVFP4算力和128 GB GDDR7内存 [2] 技术架构 - 英伟达在硬件层面分拆AI推理计算负载:上下文阶段属于计算受限 需要高吞吐量处理能力 [2] - 生成阶段属于内存带宽受限 依赖高速内存传输和高带宽互联 [2] 企业动态 - 开普云拟通过发行股份方式购买深圳金泰克持有的南宁泰克30%股权 [3] - 深圳金泰克将其存储产品业务的经营性资产转移至南宁泰克 [3] - 开普云拟收购南宁泰克70%股权 [3]
国泰海通:供应商陆续推出AI高端芯片 内存升级助力DRAM量价齐升
智通财经网· 2025-09-12 06:51
英伟达下一代Rubin CPX技术特点 - 英伟达下一代Rubin CPX在硬件层面分拆AI推理计算负载 内存升级提供更高速传输[1][2] - NVIDIA Vera Rubin NVL144 CPX集成36个Vera CPU和144块Rubin GPU及144块Rubin CPX GPU 单个机架配备100TB高速内存和1.7PB/s内存带宽[2] - Rubin机架处理大上下文窗口性能比当前旗舰GB300 NVL72机架高最多6.5倍[2] - 上下文阶段属计算受限 需高吞吐量处理能力分析输入数据生成首个输出token 生成阶段属内存带宽受限 依赖高速内存传输维持逐个token输出性能[2] - Rubin CPX针对数百万tokens级别长上下文性能优化 具备30peta FLOPs NVFP4算力和128GB GDDR7内存[2] 存储行业发展趋势 - DRAM及NAND Flash在智能手机 服务器 笔电的单机平均搭载容量均增长 服务器领域增幅最高 2024年Server DRAM单机平均容量年增17.3%[1][4] - AI服务器需求持续增加 高端芯片如英伟达Rubin及云端服务业者自研ASIC推出或量产 推动高速运算DRAM产品量价齐升[1][4] 开普云业务动态 - 开普云拟通过发行股份收购深圳金泰克持有的南宁泰克30%股权 同时深圳金泰克将存储产品业务经营性资产转移至南宁泰克[3] - 公司拟收购南宁泰克70%股权 交易对方深圳金泰克将其存储产品业务经营性资产转移至南宁泰克[3]
英伟达新GPU突袭,性能拉爆当前旗舰
36氪· 2025-09-11 09:13
产品发布与性能 - 英伟达推出专为长上下文工作负载设计的专用GPU Rubin CPX 用于翻倍提升AI推理运算效率 特别是编程和视频生成等超长上下文窗口应用 [1] - Rubin CPX是首款专为处理数百万级别tokens并进行AI推理的模型构建的芯片 [1] - 搭载Rubin CPX的Rubin机架在处理大上下文窗口时性能比当前旗舰机架GB300 NVL72高出最多6.5倍 [3] - 下一代旗舰机架NVIDIA Vera Rubin NVL144 CPX提供8 exaFLOPs的NVFP4算力 比GB300 NVL72高出7.5倍 [5] - 单个机架提供100TB高速内存和1.7PB/s的内存带宽 [5] - Rubin CPX具备30 petaFLOPs的NVFP4算力和128GB GDDR7内存 专门针对数百万tokens级别长上下文性能优化 [10] 技术架构与创新 - 公司将AI推理计算过程拆分为上下文与生成两个阶段 分别由两块GPU运算 [1] - 上下文阶段属于计算受限 需要高吞吐量处理能力摄取并分析大量输入数据以生成首个输出token [8] - 生成阶段属于内存带宽受限 依赖高速内存传输和高带宽互联维持逐个token输出性能 [8] - 通过分离式处理两个阶段并针对性优化计算与内存资源 显著提升算力利用率 [8] - 下一代旗舰服务器集成36个Vera CPU、144块Rubin GPU和144块Rubin CPX GPU [1] 商业价值与应用场景 - 部署价值1亿美元的新芯片将能为客户带来50亿美元收入 [5] - 大约20%的AI应用需要等待首个token出现 例如解码10万行代码可能需要5-10分钟 [10] - 视频生成应用中预处理和逐帧嵌入会迅速增加延迟 导致当前视频大模型通常仅用于制作短片 [10] - 公司计划以两种形式提供Rubin CPX:与Vera Rubin同装一个托盘 或单独出售整机架CPX芯片匹配Rubin机架 [10] 产品路线图 - Rubin是公司将在明年发售的下一代顶级算力芯片 基于Rubin的CPX预计到2026年底出货 [1]
英伟达:Rubin CPX登场,要和博通ASIC“掰掰手腕”
36氪· 2025-09-10 19:23
博通ASIC进展与市场影响 - 博通财报发布当天股价上涨近10% 英伟达和AMD分别下跌3%和6% [1] - 博通第四位客户的百亿订单引发ASIC抢占AI核心芯片市场的预期 [2] - 博通在AI芯片市场份额已达近10% 超越英特尔和AMD [2] - 博通当前拥有3个量产客户和4个潜在客户 潜在客户量产将带来增量收入 [2] 英伟达Rubin CPX GPU产品特性 - 英伟达推出专为海量上下文处理设计的Rubin CPX GPU [4] - 算力达30 PFLOPS(NVFP4精度) 配备128GB GDDR7内存 [5] - 注意力机制速度比GB300 NVL72系统快3倍 [5] - 计划2026年底推出 常规Rubin GPU之后上市 [5] - 可与Vera CPU和Rubin GPU协同工作 形成高性能分解式服务解决方案 [7] - Vera Rubin NVL144 CPX集成36个Vera CPU、144块Rubin GPU和144块CPX GPU [7] - 提供8 EFLOPs NVFP4算力 是GB300 NVL72的7.5倍 [7] - 单机架提供100TB高速内存和1.7 PB/s内存带宽 [7] - 每投资1亿美元可获得50亿美元token收益 [8] 产品定位与市场竞争 - Rubin CPX专用于上下文和预填充计算 Rubin/Rubin Ultra负责生成阶段计算 [10] - 上下文阶段限制点在计算能力 生成阶段限制点在内存带宽 [10] - CPX采用GDDR7内存而非HBM内存 满足上下文阶段需求 [10] - 英伟达通过GPU+专用GPU搭配实现优化 [10] - 产品主要面向核心云厂商等大型公司 与ASIC目标客群重合 [12] - 是对博通ASIC竞争的直接回应 [12][14] - ASIC凭借成本优势与核心云厂商绑定合作 博通已拥有7家客户/潜在客户包括谷歌、Meta、字节等 [14] - 博通百亿订单和甲骨文合同价值飙涨3000亿 显示美国大厂资本开支提升 [14] 行业发展趋势 - AI需求旺盛推动整个市场规模扩大 [14] - GPU与ASIC之争涉及未来市场份额分配 [14]