Workflow
傅里叶的猫
icon
搜索文档
半导体AI 专业数据分享
傅里叶的猫· 2025-07-03 21:03
| 类别 | 2024 | 2025e | 2026e | 2027e | | --- | --- | --- | --- | --- | | capacity for Local GPU(kwpm) | 2 | 10 | 20 | 26 | | . B capacity (kwpm) | 2 | 9 | 0 | O | | C C capacity (kwpm) | 0 | 1 | 10 | ნ | | Clork capacity (kwpm) | 0 | 0 | 10 | 20 | | Die per wafer 13 | 78 | 78 | 78 | 78 | | Die per wafer 91 C | За | За | За | За | | Die per wafer -- X | За | За | Зд | 39 | | Average yield rate of B (%) | 30% | 30% | 50% | 70% | | Average vield rate of 9 (%) | 0% | 15% | 30% | 50% | | Average yield rate of (%) ...
数据中心的运营成本和盈利情况
傅里叶的猫· 2025-07-03 00:00
数据中心财务模型分析 1 核心财务数据 - 数据中心采用40万块GB200 GPU构建 对应5555台NVL72服务器 总资产成本约220亿美元[1] - 租赁定价为每小时2.6美元/GPU 单日租赁费用约400元人民币[2] - 五年期年均营收90亿美元 总营收达450亿美元[3] - 托管成本逐年递增 首年1亿美元 第五年升至1.13亿美元[1][4] - 电力成本刚性增长 从首年7.55亿美元增至第五年8.13亿美元[1][5] - 两项运营成本合计年均约20亿美元[6] 2 成本结构 - 服务器折旧为最大成本项 每年固定33亿美元 7年完成220亿美元资产折旧[1][7] - 其他运营成本包括:安装摊销200万美元/年 维修维护200万美元/年 销售营销4600万美元/年[1] - 利息支出前四年年均8.9亿美元 第五年骤降至4.45亿美元 推测因债务偿还进度调整[8] 3 利润表现 - 毛利率保持39%-44% 五年累计贡献利润125亿美元[1][10] - 税前利润年均30亿美元 税后利润年均25亿美元 所得税率约20%[8] - 营业利润率呈现下降趋势 从首年44%降至第五年39%[1] 4 行业运营特征 - 数据中心采用机柜租赁模式 涉及物理空间占用费及基础服务费(网络/安保/制冷)[9] - GPU服务器更新周期约7年 与财务折旧周期匹配[7] - 硬件维护需持续投入 即使官方维保仍需支付服务费用[7] 5 商业逻辑争议 - 模型显示五年净亏损100亿美元 与表面利润数据存在矛盾[11] - 营收计算方式存疑 未明确450亿美元收入的具体构成逻辑[3] - 资产折旧速度(7年清零)与行业技术迭代节奏相符 但导致账面成本压力显著[7]
Google说服OpenAI使用TPU来对抗英伟达?
傅里叶的猫· 2025-06-30 21:44
OpenAI芯片策略调整 - OpenAI长期依赖英伟达芯片,过去一年在AI服务器上投入超40亿美元,训练和推理支出各占一半,预计2025年相关支出将达140亿美元[3] - ChatGPT付费用户从年初1500万增至2500万,免费用户数亿,算力需求激增促使公司首次尝试使用Google TPU降低推理成本[3][4] - 公司发言人未确认TPU使用计划,合作细节尚不明朗[4] Google TPU布局与竞争策略 - Google在AI全栈生态布局完整,涵盖芯片/训练集群/云服务/API等九大类别,是唯一实现全覆盖的企业[5][6] - TPU出租收益目前低于英伟达芯片,但Google将其作为差异化竞争筹码,优先保留最强TPU供Gemini开发[6] - Google接触第三方云服务商探讨安装TPU,意图扩大生态覆盖并挑战英伟达主导地位[7] 行业竞争格局变化 - 苹果/Safe Superintelligence等企业已采用TPU,Meta考虑但未实施,反映行业对替代方案的持续探索[9] - 微软自研AI芯片遇阻推迟发布,OpenAI转向Google合作对其构成战略打击[9] - 推理芯片研发热潮兴起,但云服务商需通过财务激励(如数十亿美元融资)推动生态替换[10] 合作动机分析 - OpenAI选择TPU主要考虑:推理需求占比提升(适合TPU高效低耗特性)、降低对单一供应商依赖、应对英伟达产能限制[12] - 摩根斯坦利分析指出英伟达机架产品售罄,推理能力短缺驱动替代架构发展[12] - 技术适配是OpenAI面临的主要挑战,需将原GPU软件迁移至TPU平台[13] 对各方的潜在影响 - Google:TPU技术获商业验证,可能吸引更多AI公司使用Google Cloud,强化云服务竞争力[14] - 英伟达:面临推理市场份额潜在流失风险,需加强推理任务硬件优化,但训练领域优势短期难撼动[15] - 亚马逊:未被纳入OpenAI主要云供应商名单,未获选其Trainium芯片引发市场关注[17] 行业趋势总结 - 事件反映AI算力军备竞赛升级,涉及芯片控制权/成本/生态的多方博弈[18] - 英伟达仍主导训练芯片市场,但TPU等替代方案在性能/成本/生态协同上的突破可能改变行业格局[18] - 行业呈现训练芯片集中化与推理芯片多元化并存的阶段性特征[10][15]
回头看AMD在3年前对Xilinx的这次收购
傅里叶的猫· 2025-06-30 21:44
收购背景与战略意图 - AMD于2022年2月以490亿美元收购全球第一大FPGA厂商Xilinx,旨在强化AI、数据中心及边缘计算领域布局[1][2] - Xilinx的FPGA、可编程SoC及AI引擎技术与AMD的CPU/GPU形成技术互补,可优化数据密集型应用解决方案[2] - 收购看重Xilinx在5G通信、汽车等市场的技术积累,但核心目标为高增长领域而非传统市场[2] 产品与技术整合 - 成立Adaptive and Embedded Computing Group(AECG)主导FPGA/SoC路线图,由原Xilinx CEO领导[4] - 产品线延续Xilinx原有技术路线,包括Versal Premium Gen 2、Spartan UltraScale+等系列,未出现突破性创新[6][7][8] - 重点技术升级包括:支持PCIe Gen 6/CXL 3.1(64Gb/s)、集成400Gbps加密引擎、DDR5内存支持等[10] - 16nm工艺使功耗降低30%-60%,RF-ADC/DAC采样率达32GSPS,计算密度达竞品3倍[10] 财务表现与业务影响 - Xilinx被收购前2021年营收31.5亿美元,与2020年持平[11] - 嵌入式业务(含FPGA)2023年营收53亿美元(+17%),但2024年降至36亿美元(-33%)[18][19][21] - 数据中心业务2024年收入126亿美元(+94%),但FPGA贡献占比未披露[22] - 高端FPGA受美国出口禁令影响,中国市场需求转向国产替代品[19][20] 行业竞争格局 - Intel曾收购Altera布局数据中心,但Xeon+FPGA方案因功耗/适配问题失败[3][8] - 中国厂商在中低端FPGA领域取得进展,推出K7/V7系列替代方案[20][23] - 微软等云服务商早期推动FPGA应用,但AI训练场景最终由GPU主导[3]
JP Morgan--台积电CoWoS和WMCM的客户和产能分析
傅里叶的猫· 2025-06-29 18:24
客户需求分析 GPU客户 - NVIDIA 2026年CoWoS需求预计增长25%至58%份额 主要由Rubin平台迁移驱动 Rubin平台封装尺寸增加50% 减少每片晶圆封装数量 Vera CPU将迁移至CoWoS-R封装 2025年预计生产520万个Blackwell单元 2026年生产180万个Blackwell和570万个Rubin GPU单元及150万个Vera CPU 2027年需求继续强劲 Rubin Ultra封装尺寸增加近80% [2] - AMD CoWoS需求2025-2026年表现低迷 受MI300系列中国市场出货限制影响 MI400系列(特别是MI450)在2026年下半年前景乐观 AI实验室客户可能推出半定制版本 为2026年底至2027年增长提供潜力 [3] ASIC客户 - Broadcom在Google TPU市场占据主导地位 预计到2027年稳定增长 Meta 2025年开始量产首款基于CoWoS的AI加速器 2026年初期产量达50万个单位 2027年新兴ASIC项目(如OpenAI SoftBank Izanagi ARM XPU)将大规模量产 [4] - MediaTek TPU项目(TPUv)推迟量产 仍与Google TPU项目合作 第二代AI ASIC中Broadcom为主要供应商 MediaTek可能从XPU附加机会中受益 [5] - Alchip在AWS Trainium 3项目中占据有利地位 2026年CoWoS-R产量显著增加 Trainium 3将在2026年下半年成为主流 持续至2028年初 N2工艺的Trainium 4项目可能采用CoWoS-L和3D SoIC技术 [6] 非AI应用 - 网络设备等高端应用市场采用CoWoS封装 NVIDIA部分CPO交换机配置已采用CoWoS-S AMD高端Venice服务器CPU可能采用CoWoS封装并结合HBM 内存互连延迟成为系统性能瓶颈 更多处理器类别将采用CoWoS-R封装 [7] Apple WMCM采用 - 苹果2026年WMCM采用规模显著扩大 覆盖所有高端iPhone型号(A20 Pro应用处理器基于N2工艺) 预计WMCM产能2026年底达每月2.7万片晶圆 2027年底增至每月4万片晶圆 长期所有iPhone型号可能迁移至WMCM 需每月约10万片产能 [8] - WMCM工艺为简化版CoW-R 使用更便宜RDL工艺且无需基板附着 晶圆价格约InFO工艺1/2(2200-2500美元/片) 通过转换部分InFO产能(每月23万片)及新增产能实现扩张 [8][15] 产能与技术分析 - TSMC CoWoS产能2025年底预计每月69000-84000片晶圆 低于之前预测 2026年下半年供需平衡 CoWoS-L将占2026年总产量64% 支持更复杂和大尺寸封装需求 [10][13] - 非TSMC CoWoS产能有限 向CoWoS-L迁移后外包规模较小 CoWoS-R可能外包给OSATs但规模有限 [10] 数据表格摘要 CoWoS晶圆消耗(千片/年) - NVIDIA: 2023年70 2024年192 2025E430 2026E538 2027E705 [10] - AMD: 2023年10 2024年45 2025E52 2026E61 2027E77 [10] - Broadcom: 2023年40 2024年70 2025E96 2026E130 2027E160 [10] - 总消耗量: 2023年134 2024年350 2025E679 2026E856 2027E1132 [10] GPU及加速器单元(百万) - NVIDIA Blackwell系列: 2025E5.2 2026E1.8 [12] - AMD MI450系列: 2026E0.2 2027E0.7 [12] - Google TPU v7: 2026E1.3 2027E2.2 [12] - AWS Trainium 3: 2026E0.8 2027E1.3 [12]
超节点的光互联和光交换
傅里叶的猫· 2025-06-27 16:37
超节点技术概述 - 超节点通过高效互联架构显著提升大规模模型训练与推理效率,尤其在数千至上万张GPU协同场景下优势突出 [1] - 光学技术成为关键驱动力,其高效、低延迟和高可靠性特性突破传统互联方案瓶颈 [1] - 2025年起国内大模型推理需求激增,超节点通过优化token生成速度与单卡服务模型数量实现价值产出最大化 [2] 架构设计 - 单层架构为最优目标,可实现最低延迟(1微秒级)、最优成本与最高可靠性,但受交换机规模限制部分场景需采用两层架构 [4] - 国产GPU因7纳米制程限制,单卡算力仅为国际主流(如B200)的1/2至1/7,需数百个GPU通过高效互联对标NVL72超节点 [6] 发展路径 - 提高单机柜功耗:传统27千瓦机柜扩容至支持100个国产GPU,需多机柜协同实现数百GPU规模 [8] - 多机柜互联:谷歌案例显示数千GPU通过光互联组成超级系统,光缆传输距离达2000米(铜缆仅7米) [8][10] 光互联技术 - 光缆纤细特性解决铜缆堵塞风道问题,华为CloudMatrix384集群使用3000+光缆和6000+光模块 [12] - 共封装光学(CPO)将光电转换距离从几十厘米缩短至3-5厘米,博通51.2T CPO交换机集成度提升12倍 [14] - CPO节省1/3至2/3功耗,512卡全交换超节点中单位比特功耗从20pJ/bit降至7pJ/bit [16][17] 可靠性优化 - 分布式光交换(dOCS)支持故障节点动态替换,12服务器超节点可配置32卡+备份实现服务器级冗余 [18][19] - 光互联供应链更可控,光纤不依赖先进制程,国内技术差距较小 [19] 应用前景 - 超节点灵活配置4/6/8服务器规模,分散部署解决散热与土建限制 [19] - 国产GPU性能提升与光互联技术成熟将推动训练/推理场景突破,CPO与dOCS持续优化系统可靠性 [21]
DDR4价格翻倍?谁在扫货?
傅里叶的猫· 2025-06-24 22:42
存储市场概况 - 2025年第一季度存储市场进入淡季回调阶段 DRAM中Server DDR5价格下跌5%-8% 手机端LPDDR4/LPDDR5下跌约10% PC端DRAM下跌10% NAND市场企业级SSD跌幅达20% 手机端eMMC/UFS下跌15%-20% PC端SSD下跌近20% [1] DRAM细分领域 服务器端DRAM - 2025年Q2中国市场DeepSeek发布及北美企业提前拉货导致跌幅收窄 实际跌幅仅2%-3% [2] 手机端DRAM - LPDDR4X因原厂退出供应紧张 价格反弹5%-10% LPDDR5X因小米等客户备货需求上涨3%-5% [2] PC端DRAM - 关税风险刺激备货积极性 价格上涨5% [3] DDR4市场动态 - 2024年上半年DDR4价格反弹后持续下跌 每季度跌幅10%+ 2025年Q1末美光/三星宣布EOL触发抢购 现货价格翻倍 4-6月价格暴涨 当前DDR4现货价130 DDR5现货价140 [3][4] - 北美互联网公司因存储服务器成本优势(比DDR5低30%)及国内信创服务器(鲲鹏DDR5产能紧张)推动DDR4需求 原厂供货提前至2025年底结束加剧恐慌性采购 [5] NAND市场 - 2025年Q1 Sandisk减产涨价后 Q2渠道市场价格微涨 但手机端NAND仍跌3%-5% PC端因备货涨5%-10% 企业级SSD跌幅收窄 [6] - 2025年Q3预期:PC端涨5% Mobile端止跌或微涨≤5% 企业级SSD涨5% Q4价格趋于平稳 [6] 关税与需求结构 - PC端因中国产能集中及关税豁免期临近刺激提前采购 手机端苹果受政策影响较小 服务器端或通过美加墨自贸协定豁免 [7] - 阿里/腾讯受AI业务推动存储服务器需求增长 整体服务器数量同比增60%-70% 但DDR4涨价主因供给端减产预期而非需求爆发 [9] 存储服务器特性 - 互联网公司存储服务器中SSD/HDD比例1:4 主要用于存留AI应用产生的监管数据而非直接参与训练 数据量因AI应用从人工生成转向机器生成而提升 [8][9]
NVIDIA Tensor Core 从 Volta 到 Blackwell 的演进
傅里叶的猫· 2025-06-23 23:18
性能基本原理 - 阿姆达尔定律指出,对于固定问题规模,通过增加计算资源实现的最大加速比受限于串行部分,即使并行资源无限增加,加速比也只能趋近于1−S,因为串行部分的执行时间无法通过并行化减少 [3][4] - 强缩放指的是在固定问题规模下,通过增加计算资源来缩短执行时间,其加速比由阿姆达尔定律量化 [6] - 弱缩放则是在保持执行时间不变的情况下,通过增加计算资源来处理更大的问题,问题规模和资源同时按比例增加,以维持时间不变 [6] - 数据移动在性能优化中是一个关键瓶颈,被称为 "cardinal sin",现代 DRAM 单元的操作时间为数十纳秒,而晶体管开关速度在亚纳秒级别,这种速度差异导致数据移动本质上更慢 [8] 张量核心架构演进 - Volta 架构作为首个引入张量核心的里程碑,其设计源于深度学习对矩阵乘法硬件加速的需求,2017 年推出的 Volta 架构在 Tesla V100 GPU 中集成张量核心,旨在解决传统 GPU 执行矩阵乘法时指令功耗与计算功耗的失衡问题 [9] - Turing 架构于 Volta 之后推出,其第二代张量核心在 Volta 基础上增加了 INT8 和 INT4 精度支持,进一步拓展了低精度计算能力,同时通过引入深度学习超采样(DLSS)技术,将深度学习应用于游戏图形领域 [10] - Ampere 架构带来了异步数据复制技术,这一创新允许数据直接从全局内存异步加载到共享内存,绕开寄存器中转,解决了 Volta 时代数据加载与 MMA 指令竞争寄存器资源的问题 [11] - Hopper 架构进一步深化了并行计算的层次设计,新增线程块集群(Thread Block Cluster),将多个 SM 分组为图形处理集群(GPC),允许跨 SM 的数据共享与低延迟通信 [12] - Blackwell 架构作为最新一代,针对寄存器压力问题引入张量内存(TMEM),每个 SM 配备 256KB 的 TMEM,以 warpgroup 为单位访问 [13] 结构化稀疏性 - Ampere 架构推出了 2:4 结构化稀疏性,其核心在于对权重矩阵进行修剪,使每 4 个元素中 2 个为零,通过压缩非零元素并利用元数据索引记录位置,理论上可将张量核心吞吐量翻倍 [14] - Blackwell 架构则针对 NVFP4 数据类型引入了 4:8 结构化稀疏性,该模式将 8 个元素划分为 4 对连续元素,要求其中 2 对为非零值、2 对为零 [15] 张量核心规模与内存演进 - 从 Volta 到 Blackwell,张量核心的计算规模呈指数级增长,而内存层次结构则通过容量扩展与架构优化持续适配计算需求 [16] - Volta 架构作为张量核心的起点,单个 SM 配备 8 个张量核心,可实现 1024 FLOP / 周期的 F16 计算能力,支持 m8n8k4 的 MMA 形状 [17] - Ampere 将单 SM 的张量核心计算能力翻倍至 2048 FLOP / 周期,MMA 形状扩展为 m16n8k16 [17] - Hopper 进一步提升至 4096 FLOP / 周期(F16),并引入 F8 格式使计算能力达到 8192 FLOP / 周期,MMA 形状支持 m64n256k16 的更大规模 [17] - Blackwell 则实现了 F16 计算能力 8192 FLOP / 周期、F8 达 16384 FLOP / 周期、F4 达 32768 FLOP / 周期 [17] MMA 指令异步性 - Volta 架构作为初代张量核心,其 MMA 指令采用 warp-scoped 同步执行模式,需 8 线程 quadpair 协作完成 8x8x4 矩阵运算 [20] - Ampere 架构首次引入异步数据复制技术,允许数据从全局内存直接加载至共享内存,绕过寄存器中转 [20] - Hopper 架构实现了 MMA 指令的根本性突破,推出 warpgroup-level 异步 MMA(wgmma),支持 4 个 warp 组成的 warpgroup 协作执行更大规模矩阵运算 [22] - Blackwell 架构将 MMA 异步性推向极致,第五代张量核心的 tcgen05.mma 指令具备单线程语义,无需 warpgroup 协作即可发起 MMA 操作 [23] 数据类型精度演进 - Volta 架构作为张量核心的起点,仅支持 FP16 半精度输入与 FP32 单精度累加 [25] - Turing 架构在此基础上新增 INT8 和 INT4 整数精度支持,首次将低精度整数计算引入张量核心 [25] - Ampere 架构进一步拓展数据类型范围,引入 BF16(脑浮点格式),其 8 位指数与 7 位尾数的设计,在保持与 FP32 相同动态范围的同时,将存储成本减半 [25] - Hopper 架构标志着低精度浮点类型的重大突破,首次引入 FP8 格式(E4M3 和 E5M2),通过 4 位指数与 3 位或 2 位尾数实现更低精度计算 [26] - Blackwell 架构将精度降低推向极致,新增 MXFP 系列微缩放浮点格式(MXFP8、MXFP6、MXFP4),并推出自研的 NVFP4 格式 [26] 编程模型演进 - 早期 CUDA 编程模型遵循高线程占用率原则,通过将多个 CTA 分配至单个 SM,利用线程上下文切换隐藏内存访问延迟 [28] - Ampere 架构首次推出异步数据复制指令,允许线程直接将数据从全局内存加载至共享内存,无需经过寄存器中转 [29] - Hopper 架构进一步深化异步能力,新增线程块集群(Thread Block Cluster),将多个 SM 分组为 GPC,通过协作组 API 暴露硬件执行单元 [29] - Blackwell 架构将异步执行推向全栈支持,第五代张量核心的 tcgen05.mma 指令具备单线程语义,无需 warp 协作即可发起 MMA 操作 [30]
回头看AMD在3年前对Xilinx的这次收购
傅里叶的猫· 2025-06-22 20:33
收购背景与战略动机 - AMD于2022年2月以490亿美元收购全球第一大FPGA厂商Xilinx,旨在强化AI、数据中心及边缘计算领域布局[1][2] - Xilinx的FPGA、可编程SoC和AI引擎技术与AMD的CPU/GPU形成技术互补,可优化数据密集型应用解决方案[2] - 收购看重Xilinx在5G通信、汽车、工业等市场的技术积累及工程师团队,但具体IP协同效应尚待验证[2] 产品与技术整合 - 成立Adaptive and Embedded Computing Group(AECG)管理FPGA业务,与Intel收购Altera后的独立运营模式不同[4] - 产品线延续Xilinx原有路线,包括Versal Premium Gen 2、RF系列及Spartan UltraScale+等,未出现突破性创新[6][7][8] - 硬件升级聚焦高性能:支持PCIe Gen 6/CXL 3.1(64Gb/s)、集成400Gbps加密引擎、DDR5内存及18GHz RF-ADC[10] - 16nm工艺使功耗降低30%-60%,计算密度达1850万逻辑单元,单位面积算力为竞品3倍[10] 财务表现与市场动态 - Xilinx被收购前2021年营收31.5亿美元,与2020年持平,数据中心/无线通信/汽车领域保持增长[11] - 收购后AMD嵌入式业务营收:2022年45.3亿美元(推算)、2023年53亿美元(+17%)、2024年36亿美元(-33%)[17][18][19] - 数据中心业务2024年收入126亿美元(+94%),但FPGA贡献占比未披露[22] - 美国禁令导致高端FPGA在华销售受限,国产中低端FPGA替代加速[19][20] 行业竞争格局 - Intel曾收购Altera布局数据中心,但Xeon+FPGA方案因功耗/适配问题失败,市场份额持续流失[3][8] - AMD未复刻Intel的CPU+FPGA整合路线,FPGA在数据中心应用效果仍不明确[8][22] - 传统FPGA应用市场营收下滑,Versal系列未达预期,Ultrascale(+)仍是主力产品[8][19] 技术可行性验证 - CPU+FPGA方案存在固有缺陷:高功耗叠加导致散热难题,软件生态适配成本高[8] - FPGA在数据中心的应用效果低于预期,AI训练场景仍由GPU主导[3][22]
Ethernet跟InfiniBand的占有率越差越大
傅里叶的猫· 2025-06-21 20:33
Broadcom Tomahawk 6交换芯片 - 采用3纳米工艺技术,配备200G SerDes,支持102.4Tbps交换容量,是主流以太网芯片(51.2Tbps)的两倍[2] - 通过CPO技术集成光学引擎与交换硅芯片,优化功耗、延迟和TCO,单芯片价值低于2万美元[2] - 在Scale-out架构中可连接10万个XPU,减少67%光学模块和物理连接,Scale-up架构单芯片支持512个XPU单跳连接[3] - 认知路由2.0技术针对AI工作负载优化,集成全局负载均衡和动态拥塞控制功能[3] - 推动1.6T光学模块和DCI需求增长,加速CPO价值链商业化进程[4] AI网络架构技术对比 - Scale-out网络以InfiniBand和以太网Clos拓扑为主,InfiniBand因NVIDIA GPU优势初期占据主导[5][6] - Scale-up网络技术包括NVLink、UALink、SUE和Infinity Fabric,NVLink在超大规模数据中心领先[8] - 以太网通过UEC联盟推出超以太网协议,支持多路径传输和微秒级延迟,800G标准化提升竞争力[6] - InfiniBand XDR标准支持800Gb/s单端口带宽,功耗较NDR降低30%,NVIDIA Quantum-X CPO交换机基于此标准[7] - 谷歌自研OCS技术实现30%吞吐量提升和40%功耗降低,提供新型网络范式[7] 全球交换机市场趋势 - 2023-2028年OCS硬件销售CAGR达32%,超过以太网(14%)和InfiniBand(24%)交换机[10] - 云服务商将占2027年数据中心交换机销售的60%,推动800Gbps超越400Gbps[11] - 中国2024年数据中心交换机市场增长23.3%,200/400G设备收入增长132%[11] - 白盒交换机受云服务商青睐,Arista 2024年上半年市场份额首超思科达13%[11] - CPO交换机渗透率预计从2025年1%提升至2030年20%,市场规模2030年达128.77亿美元[12] Ethernet与InfiniBand竞争格局 - 全球超级计算机中78%采用RoCE以太网,65%使用InfiniBand,存在应用重叠[13] - 2022-2024年InfiniBand因NVIDIA GPU统治成为AI网络首选,以太网份额短期下滑[16] - 以太网凭借UEC协议和800G标准化重获动能,InfiniBand在可靠性上保持不可替代性[6][7]