SerDes,愈发重要
半导体行业观察·2026-01-26 09:42

文章核心观点 - 人工智能的爆发式发展,特别是大规模AI训练对海量数据交换的需求,将一项已有数十年历史的成熟技术——SerDes(串行器/解串器)推向了行业前沿,使其从辅助组件转变为构建AI数据中心不可或缺的关键技术[1] - 随着AI模型规模和GPU集群的扩大,数据传输速度成为系统瓶颈,SerDes作为“数据高速公路”的核心,其性能直接决定了整个AI计算系统的效率[1] - 行业正围绕SerDes技术展开一场隐形的竞赛,竞争焦点在于谁能提供更快、更高效、更经济的解决方案,这将成为决定未来AI基础设施竞争格局的关键因素[13] SerDes技术原理与作用 - SerDes是Serializer和Deserializer的合成词,其核心功能是将多路并行数据在发送端合并为一路高速串行数据,在接收端再还原为并行数据,以此解决芯片或设备间大量并行线路传输的物理和同步难题[3] - 该技术通过单根电线传输数百Gbps的数据,类似于将多辆货车的货物集中到一列高速子弹头列车上进行运输[3] - SerDes技术已应用数十年,常见于USB、HDMI和以太网等接口,但AI对带宽的极致需求使其重要性发生质变[3] AI驱动下的性能需求与增长 - NVIDIA最新的AI系统GB200 NVL72通过NVLink连接72个GPU,每秒可交换约130 TB的数据,形象化比喻相当于一秒钟内流式传输6,000到10,000部两小时的Netflix 4K电影[3] - 单个GPU间连接带宽大幅提升,NVIDIA第五代NVLink提供的GPU间双向带宽为1.8 TB/s,是2014年第一代NVLink(160 GB/s)的11.3倍[4] - 随着链路速度提升和连接规模扩大,自2014年以来,NVLink域的总带宽增加了900倍,在576个GPU的域中达到了1 PB/s的水平[4] 市场规模与资本支出 - 全球SerDes市场预计将从2024年的7.453亿美元增长到2032年的约20亿美元,复合年增长率为13.45%[6] - 超大规模数据中心运营商(亚马逊、微软、谷歌和Meta)的资本支出急剧增长,预计四家公司2024年资本支出总额为2244亿美元,2025年将达到3150亿美元[6] - 其中,Alphabet将其2025年资本支出预期上调至910亿至930亿美元,亚马逊则表示其2025年资本支出约为1250亿美元,这些投资中的相当一部分将流向依赖于SerDes技术的交换机、网卡、光模块和GPU[6] 技术挑战与设计核心 - 在极高的传输速度下(如主流112G SerDes每秒传输1120亿比特),信号会发生严重失真、衰减和干扰,模拟电路设计在从失真信号中精确读取原始数字数据方面起着至关重要的作用[8] - 高速模拟电路设计能力是SerDes领域的核心竞争优势,其作用类似于在数字化交通中负责道路铺设和流量控制[9] - SerDes的设计和验证非常困难,因此许多芯片公司选择购买经过验证的SerDes PHY IP许可[11] 技术演进与下一代标准 - 目前主流标准是112G SerDes,将8条通道捆绑可形成800Gbps(800G以太网),这是当前AI数据中心的标准[9] - 下一代224G以太网预计2025年投入量产,2026年显著普及,采用8条通道可实现1.6T以太网,预计到2028年,1.6T网络市场规模将达到130亿美元[9] - 更远的未来,448G SerDes处于研究阶段,预计在2028年之后应用[10] 传输介质演进与CPO技术 - 随着速度提高,铜线传输距离受限,在112G速率下有效距离缩短至约2.0-2.5米,在224G速率下缩短至约1米[10] - 共封装光器件(CPO)技术日益受到关注,它将光模块直接封装在芯片旁边,以缩短电信号传输距离,并利用光进行远距离传输[10] - NVIDIA和Broadcom计划在2025年至2026年间发布CPO产品,预计在2027年后将得到广泛应用[11] 行业竞争格局与未来焦点 - 行业正进入224G量产竞赛(2025-2026年),谁能率先大规模供应稳定的224G解决方案将决定未来几年的市场领导地位,目前Synopsys、Cadence和Marvell处于领先地位[11] - 在AI加速器互连标准上,存在NVIDIA的NVLink与由AMD、Intel、Google、Meta等公司联合成立的开放标准UALink之间的竞争,UALink于2025年4月8日发布了UALink 200G 1.0规范[12] - SerDes设计涵盖模拟、数字和信号处理领域,吸引和竞争顶尖技术人才已成为整个行业的结构性挑战,并与公司的竞争力直接相关[12]