美国AI数据中心布局 - 英伟达在美国运营16,384颗H100芯片的服务器集群,用于DGX Cloud服务[1] - AWS在宾夕法尼亚州Berwick建设GPU数据中心,毗邻核电站[1] - AWS计划建设超过20万颗Trainium2芯片的集群供Anthropic使用,微软将租用该集群[1] - CoreWeave在德克萨斯州Denton规划约5万颗GB200芯片的集群,OpenAI可能使用[1] - Meta在路易斯安那州Richland Parish规划超过10万颗芯片的集群,2025年上线1GW算力用于训练Llama 4[1] - Meta已运营2.4万颗H100芯片的集群用于训练Llama 3[1] 微软/OpenAI合作项目 - 微软在威斯康星州Mt Pleasant规划10万颗GB200芯片的集群,原计划2026-27年开放但部分建设已暂停[1] - 凤凰城地区运营7万颗H100芯片的数据中心[1] - 凤凰城地区计划2025年初部署5.5-6.5万颗GB200芯片供OpenAI使用[1] - 爱荷华州Des Moines运营超过2.5万颗A100芯片的集群,耗资12亿美元用于训练GPT-4[1] - 亚特兰大规划GB200集群,计划2026-27年与威斯康星集群协同工作[1] - 德克萨斯州Abilene规划10万颗GB200芯片的集群,OpenAI预计2025年初使用5万颗[1] 其他科技公司动态 - 特斯拉在德克萨斯州Austin部署3.5万颗H100芯片,计划2024年底扩展至10万颗H100/H200[2] - xAI在田纳西州Memphis部署10万颗H100芯片的集群,并计划改造新仓库容纳35万颗芯片[2] - Oracle在德克萨斯州运营2.4万颗H100芯片的集群用于训练Grok 2.0[1] - 芝加哥地区运营2万颗A100芯片的服务器由英伟达出租[1] - 弗吉尼亚地区运营1.45万颗A100芯片的服务器由微软出租[1] 行业技术进展 - B300芯片已上市并可接受样品订单,B200芯片可期货订购[3] - 主要云服务提供商(CSP)的GPU数量均已超过20万颗[5] - 目前GB200芯片主要由Oracle、微软和CoreWeave部署,交付量显示为今年数据[5]
美国的数据中心分布