文章核心观点 - 人工智能(AI)的快速发展,特别是大规模AI模型训练对海量数据交换的需求,使得SerDes(串行器/解串器)这项已有数十年历史的技术从“锦上添花”的组件跃升为构建AI数据中心不可或缺的“关键技术” [1] - 随着AI模型规模扩大、GPU连接增多和数据传输速度提升,SerDes的重要性与日俱增,其技术演进和市场竞争将成为决定AI基础设施性能的关键因素 [13] SerDes技术原理与作用 - SerDes是Serializer和Deserializer的合成词,其核心功能是将多路并行数据在发送端合并为单路高速串行数据(序列化),在接收端再还原为并行数据(反序列化),以解决芯片或设备间并行传输的物理线路复杂和同步困难问题 [3] - 该技术通过单根电线传输数百Gbps的数据,是连接GPU等计算单元的“数据高速公路”背后的关键技术 [1][3] - 该技术已存在数十年,广泛应用于USB、HDMI和以太网等接口,但AI带来的超高带宽需求使其地位发生质变 [3] AI驱动下的性能需求与演进 - NVIDIA最新的AI系统GB200 NVL72通过NVLink连接72个GPU,每秒可交换约130 TB的数据,相当于一秒钟内流式传输6,000到10,000部两小时的Netflix 4K电影 [3] - NVIDIA第五代NVLink提供的GPU间双向带宽为1.8 TB/s,约为2014年第一代NVLink(160 GB/s)的11.3倍 [4] - 自2014年以来,随着链路速度提高和NVLink域规模扩大,NVLink域的总带宽增加了900倍,在576个GPU的域中达到了1 PB/s的水平 [4] 市场规模与资本支出 - Kings Research预测,全球SerDes市场将从2024年的7.453亿美元增长到2032年的约20亿美元,复合年增长率为13.45% [6] - 超大规模数据中心运营商(亚马逊、微软、谷歌和Meta)的资本支出总额预计在2024年达到2244亿美元,2025年将达到3150亿美元 [6] - 例如,Alphabet将其2025年资本支出预期上调至910亿至930亿美元,而亚马逊则表示其2025年资本支出约为1250亿美元 [6] - 这些巨额投资中相当一部分流向了交换机、网卡、光模块和GPU,所有这些都依赖于SerDes技术 [6] 技术挑战与设计核心 - 虽然SerDes处理的是数字数据(0和1),但在极高的传输速度下(如主流112G SerDes每秒传输1120亿比特),模拟电路设计方法至关重要,因为信号会发生失真、衰减和干扰 [8] - 在112G速率下,单个比特的持续时间仅为9皮秒(9万亿分之一秒),模拟电路的任务是从失真的信号中精确读取原始的0和1 [8] - 高速模拟电路设计能力是SerDes领域的核心竞争优势 [9] 技术标准演进与下一代发展 - 目前主流标准是112G SerDes,将8条通道捆绑在一起即可形成800Gbps(800G以太网),这是目前AI数据中心的标准 [9] - 下一代224G以太网预计将于2025年投入量产,并在2026年实现显著普及,采用8条通道可实现1.6T以太网 [9] - 预计到2028年,1.6T网络市场规模将达到130亿美元 [9] - 随着速度提升,铜线局限性显现:在112G速率下,有效传输距离缩短至约2.0-2.5米;在224G速率下,缩短至约1米 [10] - 共封装光器件(CPO)将光模块直接封装在芯片旁边,以缩短电信号传输距离并利用光进行远距离传输,NVIDIA和Broadcom计划在2025年至2026年间发布CPO产品 [10] 行业竞争格局与未来焦点 - 由于SerDes设计和验证困难,许多芯片公司购买经过验证的SerDes PHY IP的许可 [11] - 目前最紧迫的竞赛是224G量产(2025-2026年),谁将率先大规模供应稳定的224G解决方案将决定未来几年的市场领导地位,目前Synopsys、Cadence和Marvell处于领先地位 [11] - 为实现更高速率传输(如448G及以上),与光通信的融合至关重要,NVIDIA、Broadcom和Ayar Labs等公司正在推出CPO产品,预计在2027年后将得到广泛应用 [11] - 在连接AI加速器的标准方面,存在NVIDIA的NVLink与由AMD、Intel、Google、Meta等超过85家公司支持的开放标准UALink之间的竞争,UALink 200G 1.0规范已于2025年4月8日发布 [12] - SerDes设计涵盖模拟、数字和信号处理领域,吸引顶尖技术人才已成为行业的结构性挑战,并与公司竞争力直接相关 [12]
越来越重要的SerDes