Workflow
CPO,势不可挡
半导体行业观察·2025-06-22 11:23

数据中心向CPO交换机转型 - 2025年OFC展会明确表明数据中心向CPO交换机转型不可避免 主要驱动力在于CPO带来的功耗节省[1] - 黄仁勋在2025年GTC大会上展示CPO交换机 众多厂商在OFC展会上演示集成在ASIC封装内的光引擎 共封装光学技术已无处不在[1] - Arista联合创始人安迪・贝托尔斯海姆主张线性可插拔光学(LPO)是更优选择 LPO功耗较传统可插拔光学器件减少30-50%[1] CPO与LPO技术对比 - 在1600G代际 LPO与CPO的功率效率大致相当 但LPO面临ASIC与面板光器件之间电通道插入损耗的挑战[1] - CPO的担忧包括失去配置灵活性 光器件类型混合搭配困难 厂商互操作性和可维护性挑战[2] - 光模块硬故障率约为100 FIT 软故障更常见 CPO检查或更换故障光器件所需时间长得多[2] CPO技术进展 - 行业在过去两年已取得显著进展 CPO技术可靠性大幅提升[2] - 展望400G每通道SerDes代际 CPO可能成为唯一可行选择[2] - 在如此高速率下 即使最佳PCB走线或跨接电缆也可能引入过多插入损耗 封装内实现光信号传输将成为必要[2] CPO集成方案 - 光引擎通常包含电子集成电路(EIC)和光子集成电路(PIC)[3] - 硅中介层方案允许将多个光学小芯片更靠近主裸片放置 实现更小封装 但热管理复杂化[6] - 有机基板方案将光引擎保留在ASIC封装内的有机基板上 有助于热隔离 是集成CPO的流行方案[7][8] 带宽密度定义 - 带宽密度描述沿光接口集成边缘每毫米可传输的数据量 单位通常为太比特每秒(Tbps)[9] - 更高前沿密度意味着芯片可在不增加占用面积的情况下输出更多光带宽[9] - 提升前沿密度对满足数据中心和高性能计算系统中爆炸式增长的带宽需求至关重要[9] 博通与英伟达CPO方案对比 - 博通Bailly CPO交换机基于Tomohawk-5 ASIC 总封装外光带宽为51.2 Tb/s[12] - 英伟达Quantum-X InfiniBand交换机系统具备144个800 Gb/s端口 总计115.2 Tbps带宽[18] - 博通目前拥有51.2T解决方案 英伟达跨越式发展至100-400T 满足未来百万GPU集群需求[19] 光引擎与光纤耦合 - 博通Bailly芯片在ASIC封装内集成6.4 Tbps硅光子基光引擎[20] - 英伟达集成了多个1.6 Tbps硅光子基光子引擎 采用可拆卸光子组件(OSA)[22] - 博通采用光引擎的边缘耦合光纤连接 英伟达很可能也在光子引擎上使用边缘耦合[26][29] 激光器集成与调制器 - 博通和英伟达均使用外部可插拔激光模块(ELS) 保持CPO低功耗并提高可靠性[30] - 博通使用马赫-曾德尔调制器(MZM) 英伟达选择微环谐振器调制器(MRM) MRM功耗约为1-2 pJ/bit[32][33] - 英伟达架构的可插拔激光模块数量比博通方案少4倍[31] 功率效率与散热 - 博通共封装光学每个800 Gb/s端口功耗约5.5W 比等效可插拔模块低3倍[35] - 英伟达通过使用微环调制器和更少激光器 网络链路功率效率提升3.5倍[35] - 两种方案均实现了更低的pJ/bit功耗 使超高带宽网络更具可持续性[36] 未来发展方向 - 垂直耦合正在研究实验室和部分公司中积极探索 以克服边缘长度限制[39] - 多芯光纤(MCF)可使每根光纤的通道数增至4倍 将边缘通道密度提升4倍[40] - 下一代CPO实现正在探索结合多种方法 以在给定边缘长度内提升总封装外带宽[41] CPO部署挑战 - 主要挑战在于CPO对现有生态系统和运营模式的影响 包括生态系统颠覆和运营复杂性[43] - CPO可靠性数据已开始出现 但仍需更多验证[43] - 在ASIC封装内集成对热敏感的光组件带来显著热管理挑战 液冷成为必需[44] CPO在纵向扩展中的应用 - CPO在纵向扩展用例(机架内连接)中的前景更为光明[45] - 光背板/中板链路在电缆和传输距离方面提供了巨大改进 单根带状光纤可承载多个波长 取代数十根铜缆[45] - 纵向扩展系统中GPU的合理选择可能是先过渡到CPC(共封装铜缆) 然后在链路速度达~400 Gbps及以上时过渡到CPO[46] 光子中介层与织物 - 光子中介层或织物可提供非常长的"边缘" 每毫米边缘的有效带宽可能远高于分散布置的多个独立光引擎[48] - 光子织物的主要挑战在于基础层的光引擎会散发出大量热量 热管理相当困难[50] - 光子中介层另一应用是将XPU连接至板上独立ASIC封装中容纳的内存池(HBM)[52]