Workflow
到2033年建成250GW数据中心!OpenAI的“野心”现实吗?
华尔街见闻·2025-09-30 10:01

公司战略与目标 - OpenAI计划到2033年建成250GW数据中心容量,这一目标规模约占目前美国全国总发电装机容量(约1200GW)的四分之一 [1][2] - 公司预计在2025年底建造数据中心容量超过2GW [2] - 战略核心是“规模化计算”,通过数百万芯片、大型数据中心园区、千兆瓦级电力以及大量冷却用水的“暴力工业化”方式推动人工智能向通用人工智能和超级人工智能发展 [2] - 衡量AI能力的标准已转变为整个芯片集群所消耗的电力吉瓦数,GPU的数量已无意义 [2] 项目进展与现状 - 位于德克萨斯州阿比林市的旗舰数据中心站点已正式投运,作为OpenAI和甲骨文推进5000亿美元星际之门项目的一部分 [1] - 该站点占地800英亩,有6400名工人正在施工,仅光纤电缆的铺设长度就足以绕地球16圈 [2] - 这个庞大的工地只是未来规模的一小部分,甚至不足以满足ChatGPT的需求 [2] - 在250GW目标公布前,公司已签约在2028年前获得约8GW的算力 [6] 电力需求与挑战 - 250GW的电力需求相当于250座典型核电站(每座约1GW)的发电能力 [3][5] - 作为对比,微软Azure云业务到2023年底为所有客户服务的总运营功耗约为5GW [5] - 过去大型数据中心功耗在10到50兆瓦之间,现在开发商规划的单体园区规模达到数千兆瓦,堪比整个城市能耗 [5] - 为应对电力挑战,公司正采用非常规方式,包括自建发电厂或将设施建在偏远地区,并在得州规划使用天然气、风能和太阳能的混合能源方案 [5] 资金与供应链挑战 - 公司首席执行官坦言,要做好这件事需要数万亿美元投资,并需要激活全球的全部工业基础(能源、制造、物流、劳动力、供应链) [6] - 为获得已签约的约8GW算力,公司需向微软等云服务商支付数千亿美元 [6] - 若按建造一座1GW核电站约500亿美元的成本估算,仅电力设施的投资就可能高达12.5万亿美元 [6] - 供应链瓶颈严峻,需要芯片代工巨头台积电提供更多产能生产英伟达GPU,以及光刻机制造商阿斯麦提供更多设备,产能扩张并非一蹴而就 [6] 行业影响与背景 - OpenAI快速增长的服务器需求甚至让其关键供应商英伟达的高管都感到惊讶 [5] - 这场由AI驱动的、近乎疯狂的基础设施建设热潮正在以前所未有的方式重塑能源、土地和资本市场 [9] - 该计划被视为一场基于信念的豪赌,坚信更大规模的GPU集群是通往更强大AI模型的唯一路径,类似于历史上胡佛大坝、阿波罗计划等宏大工程 [7]