Workflow
电能利用效率PUE
icon
搜索文档
买得到芯片的美国科技巨头,买不到电了
虎嗅APP· 2025-11-11 23:17
AI行业电力瓶颈 - 微软CEO指出AI发展面临的核心瓶颈是电力短缺而非算力不足,大量芯片因缺电无法投入使用[7][8] - 美国数据中心2023年总耗电量达176太瓦时,占全国总发电量4.4%,相当于马来西亚全国年耗电量,预计2028年该数字将翻倍[11] - 美国电力系统老旧导致供电不足,2021-2022年电费飙升,居民用电受到挤压[12] 数据中心能效问题 - 2024年全球数据中心平均电能利用效率PUE为1.56,意味着仅三分之二电力用于GPU计算,其余消耗在制冷、供电等辅助系统[15] - 电能利用率极低造成严重浪费,特朗普政策取消可再生能源税务优惠,转向核电并放松环境管制[16] 芯片迭代与资产风险 - AI芯片快速迭代,H100/A100等2022年前产品将被H200(2023)、B200(2024)、B300(2025)替代[20] - TrendForce预估2025年Blackwell系列将占英伟达高端GPU产量80%以上,库存芯片面临过期风险[20] - 闲置芯片直接影响AI公司估值,因股价与GPU数量及使用率高度相关[22] 企业应对策略 - 科技公司通过自建发电厂缓解电力危机,OpenAI与甲骨文在德州合建天然气电厂,xAI在田纳西基建导致发动机订单排至2029年后[25] - 将数据中心转移至墨西哥、智利等发展中国家,爱尔兰数据中心消耗全国20%电力,对当地民生造成影响[27] - 英伟达和谷歌探索太空数据中心方案,利用太阳能供电和真空散热,但存在器件老化、数据传输等技术挑战[27][28][31] 中美电力基础设施对比 - 2024年中国数据中心耗电量166太瓦时,仅占社会总用电量约2%,电力供应充足且注重绿电发展[33] - 中国在保障民生的前提下推进碳减排,电力基础设施优势明显[34]