Workflow
光传输,迈向3.2T!
半导体芯闻·2025-04-30 16:19

AI大模型赛道竞争格局 - 2025年全球四大主流语言模型为ChatGPT、Grok、DeepSeek与Gemini,技术迭代与商业格局加速重塑 [2] - ChatGPT采用封闭MoE架构,多模态生态成熟,API服务贡献70%营收 [2] - Grok依托动态推理网络实现实时数据响应,与X平台深度捆绑商业化 [2] - DeepSeek专注中文场景优化,开源模型广泛部署于政企私有化系统 [2] - Gemini集成Google Pathways算力基座,深度打通Workspace办公生态 [2] 光模块在AI系统中的核心作用 - 光模块被类比为AI系统的"动脉",负责高速、低延时数据传输,支撑GPU计算与LLM运行 [4] - 在Spine-Leaf-TOR架构中,光互联技术可扩展至十万卡GPU集群,赋能大规模计算 [5] 光模块技术演进趋势 - 传统分散式设计存在局限性,集成硅光子(SiPh)技术减少30%零部件,提升传输效率 [7] - 技术路径从单波长100G/400G/800G向200G/400G/3.2T演进,共封装(CPO)成为关键方向 [7] - 1.6T DR8模块中,DPO功耗25W,LPO约15W,CPO仅10W,能效优势显著 [9] - 英伟达已在InfiniBand和以太网交换机采用CPO技术,NVLink应用受关注 [9] - 华工正源研发3.2T CPO模块,技术进展将影响光通信行业格局 [10] 光模块技术路线对比 - 主要技术包括DPO(带MPI检测)、LPO/CPO(需ASIC芯片实现MPI)、NPO [7] - CPO电气通道更短,功耗低于DPO和LPO,成为最具潜力的互连方案 [7][9]