文章核心观点 - AI算力扩张的瓶颈是动态变化的,当前及未来的核心限制正从电力、数据中心等基础设施环节,重新转移至半导体制造及其上游设备供应链,特别是极紫外光刻机(EUV)的产能,这从根本上限制了全球AI算力的增长上限 [2][5][6][8][12] - AI驱动的存储芯片(尤其是HBM)需求激增,将严重挤压消费电子(如智能手机、PC)的DRAM产能,导致消费电子产品成本上升、性能下降,并可能引发市场出货量大幅萎缩 [17][18][19][20] - 电力供应并非AI算力的绝对制约因素,存在多种技术方案可解决数据中心能源问题,而“太空数据中心”的构想在本十年内不具备经济可行性 [22][23][24] AI算力扩张瓶颈的动态演变 - AI算力扩张的瓶颈如同“打地鼠”,不断变化,从几年前的CoWoS封装,到去年的电力,再到数据中心,其本质是AI需求增速远超产业链扩张速度 [2][4][5] - 随着数据中心、电力等基础设施逐步扩张,AI算力的核心限制正在重新回到半导体制造环节,其长期供应链瓶颈在于芯片本身 [6][7] - 芯片供应链的关键限制主要包括三部分:逻辑芯片产能(晶圆厂制造能力)、高带宽存储(HBM)等存储芯片、以及晶圆厂建设与设备周期 [8] - 数据中心建设速度明显快于芯片供应链,当AI需求爆发时,芯片供应链难以及时跟上 [8] 半导体制造与设备成为终极瓶颈 - 在晶圆厂领域,洁净室是2024年和2025年最大的瓶颈,并且到2028-2030年仍将是制约因素 [8] - 如果AI算力继续高速增长,供应链瓶颈可能继续下沉,最终限制算力扩张的可能是半导体设备产能,特别是极紫外光刻机(EUV) [8][9] - 全球EUV光刻机年产量目前约为70台,未来几年可能增至80台,即便扩张,到本十年末(2030年)也很难超过100台 [11][16] - EUV光刻机产能从物理层面锁死了全球每年能新增的最高AI算力总盘子 [16] EUV光刻机的关键杠杆效应 - 以英伟达下一代Rubin芯片建设1吉瓦(GW)算力的数据中心为例,需要消耗约5.5万片3nm晶圆、6000片5nm晶圆以及17万片DRAM存储晶圆 [15] - 制造这些晶圆需要进行约200万次EUV曝光,按单台设备吞吐量计算,刚好需要3.5台EUV光刻机 [16] - 这形成了极度扭曲的杠杆效应:支撑500亿美元数据中心资本开支的,仅仅是价值约12亿美元的3.5台EUV光刻机 [16] - EUV光刻机供应链(如卡尔·蔡司镜头组、Cymer光源)极度僵化,限制了其产能扩张速度 [16] 存储芯片短缺对消费电子的冲击 - 存储器(尤其是HBM)短缺是未来一两年的核心交易主线,到2026年,科技巨头约30%的资本开支将流向存储芯片 [17] - 长上下文AI模型需要极大的键值缓存(KV Cache),引爆了对内存带宽和容量的需求,HBM占用的晶圆面积是普通DDR内存的四倍,生产1字节AI内存需摧毁4字节消费电子内存产能 [18] - 大量DRAM产能被利润更丰厚的AI芯片抢占,将导致消费电子产品物料清单成本飙升,例如苹果iPhone的存储成本可能上涨约150美元 [19] - 内存价格翻倍甚至飙升,可能导致全球智能手机出货量从每年14亿部,降至2024年的8亿部,并在2025年腰斩至5-6亿部 [20] 1字节的AI内存,代工厂必须摧毁4字节的消费电子内存产能 [18] - 随着大量DRAM产能被利润更丰厚、签订长期合同的AI芯片抢占,消费电子的BOM(物料清单)成本将飙升,苹果iPhone的存储成本可能会上涨约150美元 [19] - Patel预计,随着内存价格翻倍甚至飙升,原本每年14亿部的智能手机全球出货量,今年可能降至8亿部,明年甚至可能腰斩至5-6亿部 [20] 对电力制约与太空数据中心的看法 - 电力不会成为AI算力的终极制约,反而是一门好生意,存在多种方案可在“电表后”解决数据中心能源问题,如飞机引擎改装、中速往复式发动机、燃料电池及“太阳能+电池”组合 [23][24] - 即使电价翻倍,分摊到单颗英伟达H100 GPU每小时1.40美元的总拥有成本中,也只增加几美分,与AI模型产生的收益相比可忽略不计 [24] - 配备足够的公用事业规模储能系统,美国电网就能额外释放20%的容量给数据中心使用 [24] - 马斯克提出的“太空数据中心”构想在本十年内不会发生,原因是芯片故障率高(约15%的Blackwell芯片需退货或重新插拔)以及空间激光通信成本昂贵,经济上不成立 [24]
最火芯片研究机构! SemiAnalysis创始人:算力瓶颈从CoWoS转移到EUV,存储吃掉30%资本开支