OCS(光路开关)
搜索文档
五年内,CPO加速替代
半导体行业观察· 2026-04-07 09:16
文章核心观点 人工智能计算需求呈指数级增长,正驱动数据中心互连技术发生根本性变革,其核心趋势是光互连技术(包括共封装光学CPO和光路交换OCS)将全面取代铜缆和可插拔光收发器,以实现更高的带宽、更低的功耗和更可靠的规模化扩展[1][4][10][66] 人工智能需求与数据中心变革 - 人工智能推理需求正呈指数级增长,成为主要驱动力,OpenAI和Anthropic的年收入均已达到约250亿美元[1][2] - 英伟达的AI计算订单积压额从去年的5亿美元激增至如今的1万亿美元[2] - 超大规模数据中心运营商贡献了英伟达需求的60%,并正在推动资本支出增长[2] - 随着人工智能从ChatGPT向深度推理和智能体发展,每次查询处理的词元数量增长数个数量级,对响应速度要求极高[5][6] 光互连技术发展趋势 - 未来五年内,数据中心内所有高带宽数据互连都将实现光纤化[1] - 光互连技术已从长途传输转向机架级通信,主要驱动力是带宽和可靠性提高,以及尺寸、功耗和成本下降[8][10] - 共封装光学器件(CPO)将取代可插拔收发器以实现横向扩展(Scale up),并取代铜缆以实现纵向扩展(Scale out)[4][17] - 光路开关(OCS)将补充甚至可能减少硅开关的应用,从而在更低功耗下提高可靠性和性能[4] 共封装光学(CPO)技术进展 - 英伟达和博通是CPO的两大主要厂商,均使用台积电的COUPE硅光子解决方案[16] - 英伟达宣布CPO将于2028年推出,将推出Feynman NVLink 8 CPO交换机用于扩展型连接[7] - Meta的可靠性数据显示,CPO光收发器比可插拔光收发器更可靠,且具有尺寸和功耗优势[17] - CPO的初始部署可能采用近封装光学器件(NPO)配置,未来将更靠近中介层以降低功耗、提高性能[31] - 密集波分复用(DWDM)是CPO的下一步发展方向,可将单根光纤上的波长数量增加至16个,从而以更低功耗实现更高带宽[31][33] 光路交换(OCS)技术生态与应用 - 谷歌是OCS技术的先驱,已将其部署在数据中心交换层顶端,可降低40%的功耗并减少资本支出[34] - 谷歌已将OCS需求外包给Lumentum和Coherent,短短几个季度内,这两家公司的OCS潜在收入从1亿美元飙升至4亿美元,Lumentum近期还与一家客户达成了一项价值10亿美元的交易[34] - 除谷歌外,其他超大规模数据中心运营商也开始采用OCS,预计将使潜在市场规模超过30亿美元[36] - 多家初创公司正在开发硅光子OCS解决方案,包括iPronics、n-eye和Salience,它们致力于满足高带宽密度、低损耗和低成本的要求[47][52][56][60][64] - 英伟达研究人员认为,OCS未来五年将在数据中心交换层级结构的各个层面发挥作用,提高网络灵活性和效率[42][45] 关键技术细节与厂商动态 - 英伟达的CPO光学引擎基于台积电COUPE平台,光子集成电路采用65nm SOI SiPh工艺,电光集成电路采用7nm FF CMOS工艺,整体面积约65mm²[23][25][29] - 在OFC 2026上,Ayar Labs与Wiwynn合作展示了一款全CPO扩展机架系统,机架内所有高带宽互连均采用单模光纤,铜线仅用于散热[18][20] - 激光器是所有光互连的核心,在CPO系统中通常设计为前面板可插拔式,便于故障更换并配备备用激光器[4][21] - 行业正探索从单波长向多波长DWDM的逐步过渡,并采用微环调制器以实现光子器件的微型化[31][33] - 成功的CMOS芯片制造商需要学习如何与光通信协同工作,以最大化利用效率[66]
数据中心芯片,要求很高
半导体行业观察· 2026-01-13 09:34
文章核心观点 - 数据中心作为现代经济的关键基础设施,对半导体和系统组件的可靠性要求极高,其设计必须追求近乎完美,因为系统故障可能导致巨大的经济损失[1] - 实现数据中心的高可靠性需要一套综合策略,包括在基础设施、网络架构、半导体组件等多个层面采用冗余设计、容错架构、先进遥测和快速故障恢复机制[2][3][4][5] - 尽管数据中心半导体在绝对工作温度和使用寿命要求上低于汽车等应用,但由于其部署规模和经济影响巨大,客户对可靠性数据、故障预测和极低故障率的要求极为严苛[9][10][11] - 高可靠性已成为数据中心半导体市场准入和获得认可的关键前提,与高性能、低功耗和低成本同等重要[12] 数据中心可靠性要求与重要性 - 数据中心故障的经济影响巨大,例如伊利诺伊州一个数据中心发生10小时的故障,导致全球货币和大宗商品市场的交易暂停[1] - 云服务提供商提供从99.9%到99.999%不等的正常运行时间服务等级协议,其中99.999%的月度最大停机时间仅为26秒[2] 数据中心基础设施可靠性策略 - 通过跨多个区域部署软件来实现冗余,能够快速在数据中心之间转移负载,避免单点故障[2] - 存储采用双副本设计,确保一个副本丢失时系统仍可运行[2] - 配备冗余的冷却系统和电力分配系统,并备有电池或发电机,以应对电网断电[2] 半导体与网络架构的可靠性设计 - 数据中心芯片和子系统采用容错架构,例如CPU使用ECC内存,HBM内存自HBM2起集成片上ECC,HBM3使用更强大的里德-所罗门码[3] - HBM具有冗余数据总线通道,运行中出现通道故障时可重新映射到备用通道[3] - 英伟达的NVLink72系统建议使用64个GPU运行,保留8个作为备用,以实现冗余[3] - NVLink网络使用18个交换机连接每个GPU,允许在某个交换机故障时进行重新映射而不影响性能,并支持热插拔故障组件以恢复冗余[3][5][8] - 横向扩展网络基于以太网,采用数据包重试、备用路由和错误检查,快速生成树协议能在几毫秒内切换故障路径[5] - 光路开关技术能在几毫秒内重新路由数百路光纤,以绕过故障芯片[6] 半导体组件的物理设计与可靠性挑战 - 人工智能加速器采用多芯片封装,各元件材料和温度的差异可能导致物理连接出现翘曲和断裂的风险[9] - 随着电频率提高以提升性能,信号完整性问题会降低数据传输可靠性,需要转向光传输来提高可靠性[5] 数据中心半导体的特定可靠性考量 - 数据中心芯片工作温度低于汽车应用,例如英伟达Blackwell GPU最高结温为85°C,AMD Epyc处理器典型最高为95°C,可短暂达到105°C,因为数据中心可负担昂贵的冷却系统来降低功耗并提高可靠性[10] - 数据中心设备出于会计目的的预计使用寿命在5到6年之间,远短于汽车,但可靠性设计仍至关重要,以确保在使用寿命内的低故障率[10] - 客户要求看到广泛的可靠性和压力测试数据,以实现极低的故障率,这涉及对成千上万个器件进行数月的高温、高频率测试,成本高昂[11] - 客户需要片上遥测技术来追踪故障先行指标,以便主动更换设备,例如通信设备中误码率的增加可作为早期预警[11] - 设备应能自我诊断并发出警报,以便快速定位和修复错误,供应商需要芯片遥测数据来改进故障预测能力,并通过故障分析来指导设计改进[11]