Workflow
Torus结构
icon
搜索文档
谷歌TPU架构解析
2025-12-01 08:49
涉及的行业与公司 * 行业:人工智能(AI)硬件基础设施、光通信、数据中心散热[1][2] * 公司:**谷歌**(AI集群架构与TPU)、**英伟达**(连接需求)[4][15] * 供应链企业:光模块领域(Lumentum、Coherent、旭创、博创、联特、泰辰光)、NPO跳线环节(长青博创、汇智科技、特斯拉信息、康力)、OCS相关(藤井)、连接器与线缆(立讯、Cradle、瑞可达)、液冷解决方案(英维克、库Master)[1][4][7][17][19] 核心观点与论据 AI行业前景与谷歌的引领作用 * 对AI行业未来前景持非常乐观的态度[2] * 谷歌推出TPU强化了市场对AI投入的信心[1][2] * 谷歌拥有强大的AI应用生态系统和领先的网络架构技术(如OCS)[1][2] 谷歌AI集群架构解析 * 集群由多个Super Pod组成,每个Super Pod内部通过OCS互联,Super Pod之间通过Scale Out网络连接[1][5] * 单个Super Pod包含144个机架,每个机架64张卡,总计9,216张卡[1][5][6] * 网络连接:柜内使用铜缆或DAC进行短距离连接,柜间采用光纤进行长距离传输[1][5][12] 谷歌Scale Up网络与Torus结构 * 采用Torus(环面)结构,具有循环连接、无边界的特点[3][8] * 在K维度的Torus结构中,每个节点连接2K个相邻节点[3][8] * 硬件实现上将机柜内64张卡视为4×4×4的3D Torus立方体,多个机柜可递归组成更大立方体[9] OCS(光线路交换)技术的作用 * 用于解决Torus架构中边缘节点间物理不直接相邻的连接问题[10] * 3D Torus需要三组OCS,2D Torus需要两组OCS[10] * OCS的交换对象是光纤,一个800G光模块可能需要四根光纤,占用OCS四个端口[16] 集群架构演变与散热管理 * 早期推理(E版本)和训练(P版本)集群分离,V7及后续版本逐渐实现训推一体化[3][14] * 训推一体化集群采用2D Torus架构,边缘节点使用光模块进行跨柜连接,128张卡的推理集群中约有64个光模块(比例约1:0.5)[3][14] * 采用定制化CDU Rack液冷系统(如英维克、库Master提供)进行散热,通过液体循环带走热量,提高运行效率并延长设备寿命[1][7] 关键数据与量化分析 集群规模与组件数量 * 单个Super Pod总卡数为9,216张[1][5][6] * 在9,216卡的I5集群中,大约需要14,000个1.6T光模块[16] * 支持9,216卡集群需要48台OCS设备(以576端口OCS计算)[16] * 对于64张卡(4×4×4立方体)的单元:需要96根光缆(即每张卡平均1.5根),80根铜缆[11] 带宽发展趋势与预测 * 谷歌每代TPU卡带宽预计将翻倍[3][17] * Scale Out网络中每张卡分配带宽:V5E为25G,V7P预计达到200G甚至更高[15] * 下一代V8架构中,按1.6T计算,光模块比例可能达到1:4.5至1:6[3][17] 投资关注方向与受益企业 * 投资方向重点关注:光模块领域、NPO跳线环节、芯片、通信及上游光芯片环节[1][4] * 随着TPU用量上升和速率提升(至1.6T),供应链企业将受益,包括旭创、博创、联特、泰辰光、藤井等[17][19] * 由于铜缆难以支持1.6T速率,连接技术可能从DAC转向ACC、AEC甚至直接使用光模块,立讯、Molex等公司正在开发相关产品[16][17][18] * Meta和Cloud等公司已向谷歌采购大量TPU,相关供应链企业未来几年业绩预期看好[19]