AI-WAN
搜索文档
微软 CEO 纳德拉:这一次工业革命,从 “AI 超级工厂”开始
36氪· 2025-11-14 08:34
公司战略核心观点 - 微软将其AI战略重新定位为构建“行星级AI超级工厂”,旨在打造一个能持续生成、调度和交付AI算力(以token为单位)的全球性基础设施系统,而非仅仅开发单一AI模型[1][5][9] - 公司CEO纳德拉将这一转变定性为一场“工业革命”,其核心是从软件许可业务转向资本密集与知识密集相结合的商业模式,重点在于通过软件优化提升资本支出效率[2][8][35][37] - 战略目标是建立长期护城河,其竞争优势不在于某一代模型的领先,而在于构建一个能灵活适应硬件快速迭代、并服务全球长尾客户的闭环系统[9][10][33] AI超级工厂的规模与架构 - 亚特兰大Fairwater 2数据中心拥有500万个网络连接,其网络光缆数量相当于两年半前微软所有Azure数据中心的总和,训练能力比GPT-5所需高出10倍[6] - 通过1 Petabit的高速网络,Fairwater 2与700英里外、横跨5个州的威斯康星州数据中心相连,在系统中被当作同一台机器进行调度[6][25] - 公司内部采用三层架构设计:训练层(为GPT-5及后续模型准备GPU资源)、推理层(确保全球响应速度)、接口层(将AI能力嵌入日常应用场景)[11] 数据中心功能的重构 - 数据中心的功能从传统的“云仓库”转变为“AI发电站”,核心要求变为能像电厂持续发电一样,持续、稳定地输出token[14][15] - 公司为AI数据中心重构了四个核心部件:芯片部署逻辑(从存储优化转向推理/训练优化)、液冷系统、网络连接结构、选址逻辑(转向靠近清洁能源和稳定电力)[16][17] - 建设速度以“光速”执行,例如Fairwater 2数据中心从获得到交付给工作负载仅用了约90天[17] 全球AI算力网络(AI-WAN) - AI-WAN(AI广域网络)的设计目标是实现跨数据中心的智能算力调度,例如在亚洲负载高峰时,可从美国或南美的空闲资源调动算力[23][24] - 调度架构分为三层:园区级调度(单个数据中心内)、区域级调度(通过高速WAN跨州协同)、全球级调度(根据工作负载类型和数据法规动态分配)[25][26] - 该网络旨在使AI算力像水电一样稳定供应,成功标准是用户无感知但系统无处不在,关键指标包括毫秒级响应延迟和高缓存命中率[28][29] 2023年战略调整的动因 - 公司暂停一批数据中心租赁计划,是为了避免成为单一模型公司的主机托管商,其目标是构建能服务长尾客户的超大规模服务网络,而非少数大客户的裸机供应商[31][33] - 面对资本支出在两年内翻三倍的压力,公司强调通过软件优化提升资本效率,例如通过软件改进使特定GPT系列的token生成效率(每瓦特每美元)提升了5倍、10倍甚至可能40倍[34][35][37] - 对于GitHub Copilot市场份额从接近100%降至25%以下,公司认为这反映了市场的快速扩张,其逻辑是“市场比份额更重要”,宁愿在一个大市场中占据25%份额[38][39][41]