UALink联盟与规范的发布 - 由AMD、Intel、Broadcom、Cisco、Google、HPE、Meta、微软等芯片、网通与云端服务大厂组成的UALink联盟,于2025年4月正式发布UALink 1.0版开放式加速器芯片互连I/O架构规范[1] - 联盟成立于2024年5月,旨在建立开放的GPU加速器互连I/O规范,为AI伺服器与丛集中的加速器提供高速、低延迟的I/O连结架构,以对抗Nvidia的NVLink技术[1] - 截至2025年1月,阿里云、苹果与Synopsys也已加入,联盟理事会加上贡献者成员超过65家[1] UALink推出的背景与目的 - Nvidia在GPU加速器市场的优势不仅在于GPU本身,其专属的NVLink高速I/O架构是维系其地位的关键“护城河”,能实现大量GPU互连以构建超大规模运算环境[1] - AMD与Intel的GPU在单卡运算效能上不亚于Nvidia,但其互连I/O架构在需要多GPU协同运作时,连结能力与频宽不如NVLink,尤其在跨节点和连结GPU数量多时差距显著[2] - UALink是“非Nvidia阵营”抗衡NVLink的解决方案,其吸引力在于提供了一套替代的开放式GPU互连I/O架构方案,并具有多供应商参与带来的通用性与成本效益[2] UALink 1.0技术规格 - UALink 1.0基于乙太网路实体层的200G规格,每通道传输速率为100 Gb/s或200 Gb/s,实际信号速率为212.5 GT/s[5] - 可以1、2、4条通道组成1个链结,在4通道下可提供800 Gb/s的资料传输频宽,即单向100 GB/s,双向200 GB/s[5] - 透过UALink交换器介接,最多可让1,024个GPU加速器互连,组成1个纵向扩展的AI Pod单元[6] UALink 1.0与NVLink的规格对比 - 在单一通道传输频宽上,UALink 1.0与NVLink 4.0/5.0相同,均为100 Gb/s或200 Gb/s[6] - 在单个链结频宽上,UALink 1.0的4通道链结提供双向200 GB/s频宽,高于NVLink 4.0/5.0的2通道链结[6] - 在单个GPU总传输频宽上,UALink 1.0为每个GPU提供最大800 GB/s的总传输频宽,远低于NVLink 4.0的900 GB/s和NVLink 5.0的1800 GB/s[6] - 在GPU互连规模上,UALink 1.0允许最多1,024个GPU互连,高于NVLink搭配交换器允许的576个直连GPU数量[6][7] - 综合来看,UALink 1.0的能力大致介于NVLink 4.0与NVLink 5.0之间,已具备竞争能力[7] 产品推出时间与未来挑战 - 第一批支援UALink 1.0的产品预计要到2026到2027年间才会推出,届时AMD与Intel的GPU加速器,以及Astera Labs、Broadcom的交换器都将支援[7] - 产品推出时间是一大弱点,因为届时Nvidia很可能也会推出新一代的NVLink 6.0,再次在效能规格上拉开与UALink的差距[7]
UALink,能否一战?