Bailly CPO交换机

搜索文档
CPO,势不可挡
半导体芯闻· 2025-06-23 18:23
数据中心光互连技术转型 - 数据中心向共封装光学(CPO)交换机转型趋势明确,主要驱动力在于CPO带来的显著功耗节省[1] - Arista联合创始人Andy Bechtolsheim仍主张线性可插拔光学(LPO)在1600G代际与CPO功率效率相当,且LPO功耗较传统可插拔器件降低30-50%[1] - 行业在CPO可靠性方面取得显著进展,展望400G每通道SerDes代际时CPO可能成为唯一可行选择[2] CPO技术方案对比 博通方案 - 推出Bailly CPO交换机,基于Tomohawk-5 ASIC,集成八个6.4Tbps光引擎,总带宽51.2Tb/s[12] - 下一代102.4Tbps CPO交换机预计采用改进的硅光子引擎,每个引擎带宽12.8Tbps以上[14] - 采用边缘耦合光纤连接,每个光引擎配备16对光纤,使用CWDM技术实现4λ×100G配置[23] - 每个800Gb/s端口功耗约5.5W,较传统可插拔模块15W降低3倍[32] 英伟达方案 - Quantum-X InfiniBand交换机系统具备144个800Gb/s端口,总带宽115.2Tbps,采用四个28.8Tbps CPO封装[16] - Spectrum-X以太网交换机系列提供128个800G端口(102.4Tb/s)和512个800G端口(409.6Tb/s)配置[17] - 采用可拆卸光子组件(OSA)设计,每个封装含六个OSA模块,提升可维护性[19] - 使用微环谐振器调制器(MRM),功耗仅1-2pJ/bit,较MZM的5-10pJ/bit显著降低[30] 技术实现细节 集成方案 - 硅中介层方案通过高密度D2D链路缩短核心裸片与光引擎连接,但热管理复杂且成本较高[6] - 有机基板方案将光引擎布置在主裸片周围,允许独立散热和模块化测试,成为主流集成方案[7][8] 关键指标 - 带宽密度定义为沿光接口边缘每毫米传输数据量(Tbps/mm),对满足爆炸式带宽需求至关重要[9] - 博通光引擎通过有机基板短连接实现6.4Tbps带宽,英伟达采用台积电COUPE工艺堆叠EIC/PIC[19] 光纤与激光器 - 博通使用16个可插拔激光模块,每个6.4T引擎配两个模块;英伟达仅需18个模块服务144个800G通道[28] - 英伟达Quantum-X每个CPO封装有324个光连接,其中288根光纤用于数据传输[24] 未来技术方向 - 垂直耦合、多芯光纤(MCF)和密集光纤间距(可达18µm)技术正在突破边缘长度限制[35][36] - 光子织物/中介层方案将光基础层与计算小芯片3D堆叠,可提供超大光I/O表面[44][45] - 光背板/中板链路可取代铜缆实现机架内连接,显著减轻重量和拥塞[42] 行业挑战与机遇 - CPO将颠覆现有供应链模式,导致厂商锁定和运营复杂性增加[39] - 热管理成为关键挑战,液冷成为高密度CPO系统的必要解决方案[40] - 纵向扩展场景(如英伟达GPU集群)可能率先大规模采用CPO技术[41] - 当前CPO成本优势不明显,需通过量产实现经济性突破[39]
CPO,势不可挡
半导体行业观察· 2025-06-22 11:23
数据中心向CPO交换机转型 - 2025年OFC展会明确表明数据中心向CPO交换机转型不可避免 主要驱动力在于CPO带来的功耗节省[1] - 黄仁勋在2025年GTC大会上展示CPO交换机 众多厂商在OFC展会上演示集成在ASIC封装内的光引擎 共封装光学技术已无处不在[1] - Arista联合创始人安迪・贝托尔斯海姆主张线性可插拔光学(LPO)是更优选择 LPO功耗较传统可插拔光学器件减少30-50%[1] CPO与LPO技术对比 - 在1600G代际 LPO与CPO的功率效率大致相当 但LPO面临ASIC与面板光器件之间电通道插入损耗的挑战[1] - CPO的担忧包括失去配置灵活性 光器件类型混合搭配困难 厂商互操作性和可维护性挑战[2] - 光模块硬故障率约为100 FIT 软故障更常见 CPO检查或更换故障光器件所需时间长得多[2] CPO技术进展 - 行业在过去两年已取得显著进展 CPO技术可靠性大幅提升[2] - 展望400G每通道SerDes代际 CPO可能成为唯一可行选择[2] - 在如此高速率下 即使最佳PCB走线或跨接电缆也可能引入过多插入损耗 封装内实现光信号传输将成为必要[2] CPO集成方案 - 光引擎通常包含电子集成电路(EIC)和光子集成电路(PIC)[3] - 硅中介层方案允许将多个光学小芯片更靠近主裸片放置 实现更小封装 但热管理复杂化[6] - 有机基板方案将光引擎保留在ASIC封装内的有机基板上 有助于热隔离 是集成CPO的流行方案[7][8] 带宽密度定义 - 带宽密度描述沿光接口集成边缘每毫米可传输的数据量 单位通常为太比特每秒(Tbps)[9] - 更高前沿密度意味着芯片可在不增加占用面积的情况下输出更多光带宽[9] - 提升前沿密度对满足数据中心和高性能计算系统中爆炸式增长的带宽需求至关重要[9] 博通与英伟达CPO方案对比 - 博通Bailly CPO交换机基于Tomohawk-5 ASIC 总封装外光带宽为51.2 Tb/s[12] - 英伟达Quantum-X InfiniBand交换机系统具备144个800 Gb/s端口 总计115.2 Tbps带宽[18] - 博通目前拥有51.2T解决方案 英伟达跨越式发展至100-400T 满足未来百万GPU集群需求[19] 光引擎与光纤耦合 - 博通Bailly芯片在ASIC封装内集成6.4 Tbps硅光子基光引擎[20] - 英伟达集成了多个1.6 Tbps硅光子基光子引擎 采用可拆卸光子组件(OSA)[22] - 博通采用光引擎的边缘耦合光纤连接 英伟达很可能也在光子引擎上使用边缘耦合[26][29] 激光器集成与调制器 - 博通和英伟达均使用外部可插拔激光模块(ELS) 保持CPO低功耗并提高可靠性[30] - 博通使用马赫-曾德尔调制器(MZM) 英伟达选择微环谐振器调制器(MRM) MRM功耗约为1-2 pJ/bit[32][33] - 英伟达架构的可插拔激光模块数量比博通方案少4倍[31] 功率效率与散热 - 博通共封装光学每个800 Gb/s端口功耗约5.5W 比等效可插拔模块低3倍[35] - 英伟达通过使用微环调制器和更少激光器 网络链路功率效率提升3.5倍[35] - 两种方案均实现了更低的pJ/bit功耗 使超高带宽网络更具可持续性[36] 未来发展方向 - 垂直耦合正在研究实验室和部分公司中积极探索 以克服边缘长度限制[39] - 多芯光纤(MCF)可使每根光纤的通道数增至4倍 将边缘通道密度提升4倍[40] - 下一代CPO实现正在探索结合多种方法 以在给定边缘长度内提升总封装外带宽[41] CPO部署挑战 - 主要挑战在于CPO对现有生态系统和运营模式的影响 包括生态系统颠覆和运营复杂性[43] - CPO可靠性数据已开始出现 但仍需更多验证[43] - 在ASIC封装内集成对热敏感的光组件带来显著热管理挑战 液冷成为必需[44] CPO在纵向扩展中的应用 - CPO在纵向扩展用例(机架内连接)中的前景更为光明[45] - 光背板/中板链路在电缆和传输距离方面提供了巨大改进 单根带状光纤可承载多个波长 取代数十根铜缆[45] - 纵向扩展系统中GPU的合理选择可能是先过渡到CPC(共封装铜缆) 然后在链路速度达~400 Gbps及以上时过渡到CPO[46] 光子中介层与织物 - 光子中介层或织物可提供非常长的"边缘" 每毫米边缘的有效带宽可能远高于分散布置的多个独立光引擎[48] - 光子织物的主要挑战在于基础层的光引擎会散发出大量热量 热管理相当困难[50] - 光子中介层另一应用是将XPU连接至板上独立ASIC封装中容纳的内存池(HBM)[52]