Tomahawk Ultra交换机ASIC

搜索文档
博通用一颗芯片,单挑英伟达InfiniBand 和 NVSwitch
半导体行业观察· 2025-07-18 08:57
InfiniBand技术发展与应用 - InfiniBand最初作为跨设备主流结构失败后,在超级计算机领域找到定位,成为高性能、低延迟互连技术,主要得益于远程直接内存访问(RDMA)技术[3] - Nvidia五年前以69亿美元收购Mellanox Technologies,部分原因是预见到InfiniBand在连接GPU服务器节点以协作训练AI模型中的关键作用[3] - InfiniBand在传统高性能计算(HPC)市场份额有限,但大型语言模型和生成式AI的兴起将其推向后端网络新高度[4] Nvidia的GPU互连技术 - Nvidia开发NVLink端口和NVSwitch交换机,使多个GPU内存集群化,在DGX-2系统中实现16个V100 GPU共享HBM内存,呈现为单一2 petaflops FP16性能设备[4] - NVLink技术扩展到GB200 NVL72等机架级系统,为AI服务器节点构建提供显著优势[4] 博通挑战InfiniBand的以太网方案 - 博通开发Tomahawk Ultra以太网交换机ASIC,目标取代InfiniBand在HPC和AI集群的应用,同时兼具内存结构功能[5] - Tomahawk Ultra实现250纳秒端口到端口延迟,770亿PPS吞吐量,51.2 Tb/秒总带宽,性能接近InfiniBand[12] - 采用优化以太网报头技术,将标准46字节报头压缩至10字节,提升传输效率[15] 技术性能对比 - InfiniBand历史延迟数据:从2001年300纳秒(SDR)降至2015年86纳秒(EDR),但近年因信号处理开销增加,NDR/XDR延迟回升至240纳秒[10][11] - InfiniBand交换机吞吐量演进:从2015年70亿PPS(7.2 Tb/秒)提升至2021年66.5亿PPS(25.6 Tb/秒)[12] - 博通Tomahawk Ultra在相同小数据包条件下,PPS是Tomahawk 6的两倍,延迟仅为后者1/3[12] 关键技术突破 - 引入链路层重传(LLR)和基于信用的流量控制(CBFC)技术,使以太网表现更接近无损传输,避免传统拥塞处理导致的性能下降[16][18][20] - 实现网络内集体操作功能,这是取代InfiniBand的关键特性,类似Nvidia的SHARP功能[13][23] 市场影响与竞争格局 - 博通Tomahawk Ultra不仅针对InfiniBand,还挑战Nvidia的NVSwitch和新兴UALink标准,可能成为GPU互连替代方案[26] - AMD计划在"Helios"系统中通过以太网隧道传输UALink协议,显示行业对以太网方案的认可[29] - Tomahawk Ultra样品已推出,预计2026年上半年上市,支持铜缆/光纤多种连接方式[29]