Nemo Cloud 框架
搜索文档
GTC大会新架构与核心技术要点解读
2026-03-22 22:35
行业与公司 * 本次电话会议纪要主要围绕英伟达在GTC 2026大会上发布的新一代产品与技术展开,涉及**人工智能(AI)计算硬件行业**,核心是**英伟达公司**[1][2][3] * 会议详细解读了其新发布的**Feynman架构**、**Rubin/Rubin Art GPU**、**VeraWell CPU**、**LPU**等产品,并讨论了相关**散热**、**互联**、**存储**技术及对**下游产业链(如ODM、PCB、光模块、HBM供应商)** 的影响[1][2][3][4][5][6][7][8][9] 核心产品性能与架构提升 * **Feynman架构**:采用**1.6纳米**制程,通过**CPO交换机**互联,旨在解决大规模AIG集群柜间互联瓶颈与能耗问题,实现的**带宽密度有近10倍的提升**[1][2] * **Rubin GPU**:推理速度达**50 PetaFLOPS**,性能约为前代**Blackwell的12.5倍**[2] * **Rubin Art 机柜**:如NVR72架构的机架性能约为**GB200的14倍**;Rubin Art 576整体推理性能相比Blackwell架构提升约**14倍**[2] * **VeraWell CPU**:效率相比英特尔和AMD最新的CPU高出**近两倍**,核心数翻倍至**88核**[1][3][4] * **LPU (推理处理单元)**:与Rubin GPU搭配用于推理场景时,能使整体推理性能提升约**35倍**,吞吐量最多可提升**50倍**[1][6] * **成本与效率**:新一代产品在算力大幅提升的同时,**Token成本相较前一代产品降低了近90%**;LPU采用SRAM/DDR5替代HBM,可使单位Token成本降低**至少80%**[1][3][6][11] 技术趋势与行业影响 * **模块化与集成化**:新产品(如NV Switch和Rubin节点)高度模块化,服务器组装时间从原先的**两天缩短至约两个小时**,这**削弱了ODM厂商的自主空间**,其业务重心由组件制造转向整机柜集成[1][3][4][5] * **散热技术**:散热方案全面转向**100%液冷**,采用**45度温水**进行冷却,以降低电力成本[1][3][4][5] * **互联技术**:呈现**铜光并存**趋势。机柜内未来**3-4年仍以铜互联为主**(224G/448G);**CPO**渗透预计**2027年大规模交付**,**2028-2029年成熟部署**,成本是主要考量[1][5][9] * **软件框架**:**Nemo Cloud**框架相比OpenAI框架,在**安全性**(内部开源)和与英伟达GPU平台的**兼容性与效率**上具备优势[4] * **AI应用**:**Agent AI**的应用被视为开启智能体的新拐点,预计将成为未来关注焦点[3] 供应链与硬件需求变化 * **HBM存储**: * Ruby架构采用**HBM4**,Ruby Arch将采用**HBM4E**,存储容量约**288GB**[7][8] * 海力士是HBM4量产进度最快的厂商,其**12层HBM4**产品已于**2026年第二季度**实现量产;HBM4E预计**2027年第二季度**推出[1][8] * 三星整体交付进度较慢,预计**2026年第三季度**左右进行验证和交付;美光进度更晚,大批量交付可能要到**2026年第三或第四季度**[8] * HBM市场存在**接近20%的结构性短缺**,因其占用了约**30%至40%** 的原有DRAM产能[1][8] * **PCB(印制电路板)**:LPU的应用对服务器硬件提出更高要求,其所使用的PCB板层数会显著增加,预计将达到**40至50层**,提升了PCB的价值量[1][6] * **光模块**:CPO等新技术的发展可能影响传统光模块市场,未来的800G和1.6T硅光模块可能向**可插拔形式**演进,传统带DSP功能的光模块价值量可能受到压缩[9] 其他重要信息 * **Spectrum交换机**:用于超大规模集群互联,关键技术包括自适应路由和通过AI控制网络拥塞,实现算力均衡分配[7] * **替代存储方案**:业界探索使用**PCIe 6.0**带宽将**DDR5**内存作为缓存扩展的策略,以应对部分推理场景并降低成本,但无法满足训练场景[8] * **国内供应链**:在HBM领域,海外厂商仍占据主导地位,国内厂商进展尚不顺利[8] * **LPU部署形式**:LPU目前采用**风冷**即可,短期内与GPU集成在同一模块的可能性不大,分体式部署有利于降低故障维修成本[6]