AI supercomputer
搜索文档
NVIDIA (NasdaqGS:NVDA) Conference Transcript
2026-02-03 15:02
纪要涉及的行业或公司 * 公司:英伟达 (NVIDIA),专注于为人工智能工厂构建超级计算机和网络基础设施 [1] * 行业:人工智能计算、数据中心网络、硅光子学、共封装光学 (CPO) 技术 [3] 核心观点和论据 1. AI超级计算机的架构与四大网络基础设施 * 构建AI超级计算机需要整合四大网络基础设施:Scale-Up (纵向扩展)、Scale-Out (横向扩展)、Context Memory Storage (上下文内存存储) 和 Scale Across (跨域扩展) [4][5][6] * **Scale-Up**:通过NVLink连接H100 GPU,形成机架规模的单一虚拟GPU,未来可连接数百个H100 GPU [4] * **Scale-Out**:通过Spectrum-X以太网连接数十万个GPU,运行单一AI工作负载,其核心使命是消除抖动,确保所有GPU完全同步 [5][10] * **Context Memory Storage**:利用BlueField DPU在AI Pod内构建新的存储层级,服务于推理工作负载的存储需求 [6] * **Scale Across**:基于Spectrum-X以太网,连接远程数据中心,形成支持千兆规模AI工厂的单一计算引擎 [7] 2. Spectrum-X以太网:专为AI设计的网络 * 现有以太网技术(企业级、超大规模数据中心级、服务提供商级)均非为AI分布式计算设计 [8][9] * Spectrum-X以太网采用端到端基础设施设计,专注于RDMA和消除抖动,以实现GPU间的高效、同步数据交换 [10] * 通过SuperNIC控制注入速率以避免热点,交换机使用细粒度自适应路由为每个数据包选择最佳路径,共同消除抖动 [11] * **性能提升**:通过消除抖动,将专家调度性能提升3倍;在训练中实现1.4倍的性能提升,并提供可预测的性能 [12] 3. 共封装光学 (CPO) 技术的优势与创新 * **驱动因素**:随着带宽代际翻倍,用于横向扩展网络的光连接功耗持续增加,可消耗近10%的计算资源,降低功耗对提升数据中心计算能力至关重要 [13][14] * **技术原理**:将传统上位于交换机外部光模块中的光引擎,移至与交换机ASIC相同的封装内 [15] * **核心优势**: * **功耗**:将横向扩展基础设施的功耗降低5倍 [18] * **可靠性**:通过将光引擎封装在液冷盒内、避免人为接触,将可靠性提升13倍,信号完整性提升64倍 [20][21] * **组件**:减少所需激光器和组件数量,无需使用可插拔光模块 [18][21] * **产品规格**: * **Spectrum-X以太网光子学**:提供102 Tb/s交换机(120个800Gb端口或512个200Gb端口)和409 Tb/s大型交换机(512个800Gb端口或2,000个200Gb端口)[22] * **Quantum-X InfiniBand光子学**:提供115 Tb/s全液冷交换机,支持144个800Gb端口 [21][22] * **技术创新**:与台积电合作开发共封装工艺;采用微阵列调制器构建支持大基数交换机的小型光引擎;设计高功率激光器以减少激光器数量;改进光纤对准和连接技术 [30][31][32][33] 4. CPO部署计划与客户案例 * **部署时间表**:CPO部署已于今年开始 [26] * **InfiniBand CPO**:CoreWeave、Lambda和德克萨斯高级计算中心将在今年上半年首批部署Quantum-2 InfiniBand CPO [26] * **以太网 CPO**:Spectrum-X以太网CPO将于今年下半年开始发货 [26] 5. CPO与可插拔光模块的对比及客户关切 * **灵活性担忧**:可插拔光模块支持按端口选择多模/单模等不同技术,CPO交换机需预先确定连接技术 [34][35][36] * **公司回应**:NVIDIA的CPO技术选择已能覆盖数据中心内部乃至园区楼宇间的全部距离,无需多种光模块,在降低功耗的同时提供了所需的连接能力 [37][38][42] * **可靠性担忧**:可插拔光模块因人为接触、灰尘等需要不时更换,可能引发对CPO可靠性的顾虑 [27][28][39] * **公司回应**:CPO将光引擎内置封装、液冷、全系统测试且避免人为接触,其可靠性堪比不带光模块的可插拔交换机,解决了可靠性问题 [29][40][41] * **成本模型担忧**:可插拔光模块支持“按需付费”模式,CPO可能提高前期采购成本 [49] * **公司回应**:AI超级计算机的拓扑结构经过优化,交换机完全利用,通常需要一次性购买全部光模块。采用CPO降低了基础设施的总成本(节省资本支出和运营支出),并提高了可靠性和正常运行时间,是双赢局面 [51][52][53] 6. 未来创新方向与生态系统 * **创新节奏**:为支持新一代AI工作负载,数据中心设计、GPU、交换机、超级网卡等技术已进入年度更新节奏 [54] * **未来重点**:支持更大基数的交换机;提高光网络密度和横向扩展基础设施的带宽容量;优化整个机架和数据中心的密度与液冷设计 [54][55] * **液冷兼容性**:网络交换机的液冷机架设计与计算服务器(如DGX)使用的机架设计相同,便于数据中心构建、安装和管理 [56] * **合作伙伴与灵活性**:与大型制造商合作,为不同云服务提供商和客户设计交换机;Spectrum以太网支持多种操作系统(如Cumulus、Nexus),具备全面灵活性 [57][58] 其他重要内容 * **术语澄清**:在问答中,演讲者使用了“Coherent Edge Optics”来指代其CPO技术,这与之前使用的“co-package optics”含义相同 [44][53][54] * **未回答问题处理**:由于时间有限,大量未现场回答的问题将通过PDF形式在后续提供给参会者 [45][59]