英伟达发布新一代AI芯片架构Vera Rubin - 公司正式发布新一代AI芯片架构NVIDIA Vera Rubin 该平台并非单一芯片迭代 而是从晶体管到系统架构的全栈重新设计[1] - 公司展示了六颗全新芯片 包括Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9智能网卡、BlueField-4 DPU、Spectrum-X102.4T CPO[1] - 新架构通过重新设计芯片间高速互连 使系统通信带宽达到“全球互联网总带宽的两倍” 以解决传统架构中数据传输的瓶颈问题[1] AI计算性能与效率的显著提升 - 使用Vera Rubin架构训练一个10万亿参数规模的前沿大模型 所需集群规模仅为使用Blackwell系统的四分之一[3] - 在同等功耗和空间下 一个Vera Rubin数据中心的AI计算吞吐量预计将达到基于Hopper架构数据中心的约100倍[3] - 大规模AI服务的token生成成本 预计将降至当前水平的约十分之一[3] AI对存储架构的重塑与需求量化 - 为应对大模型KV Cache体积增长 公司通过四颗BlueField-4 DPU直接管理一个高达150TB的共享、持久、高速上下文内存池[2] - 内存池通过超低延迟机架内网络与所有GPU直连 可动态为每个GPU分配高达16TB的专用高速上下文空间[2] - 若按每GPU增加16TB NAND、每机柜增加1152TB NAND计算 假设14万机柜部署 将新增161EB的NAND需求[4] - 该新增需求大约占2025年全球NAND总需求的16% 以及企业级SSD需求的54% 可能持续影响NAND供需平衡[4] 行业趋势与公司战略定位 - AI正加速一切存储的重要性 并逐步重塑存储堆栈 此前市场对AI需求下的DRAM和SSD增长逻辑预期未达成一致[1] - 公司在摩尔定律放缓的背景下 认为真正的突破来自于从系统层面重新设计系统协同工作 而非单纯依赖制程进步[1] - 公司正成为AI时代全栈计算基础设施的定义者和提供者[3]
国联民生证券:英伟达(NVDA.US)发布全新AI架构 AI正重塑存储堆栈