Workflow
OpenAI多点下注,联手英伟达、AMD、博通,狂揽26吉瓦算力
美股研究社·2025-10-14 20:30

文章核心观点 - 人工智能算力已成为决定AI公司核心竞争力的战略性资源 [5] - OpenAI近期密集披露三项大规模硬件合作,总计涉及高达26吉瓦的算力规模 [5][6] - 这些合作显示OpenAI正从算力消费者向算力生态的共同设计者和战略掌控者转变 [6][12] - 三个项目的首次大规模部署节点均指向2026年下半年,预示其算力基础设施和模型研发能力将迎来飞跃 [13] OpenAI与博通的合作 - 双方于10月13日宣布合作开发10吉瓦的定制AI加速器 [7] - OpenAI主导AI加速器及整个系统架构设计,机架系统完全基于博通的以太网和其他连接解决方案构建 [7] - 计划于2026年下半年开始部署,预计在2029年底前完成全部部署 [7] - 合作已持续18个月,旨在从晶体管层面重新构思技术架构,优化整个技术堆栈以实现显著效率提升 [7] OpenAI与AMD的合作 - 双方于10月6日宣布达成合作协议,计划在未来数年内分阶段部署总计6吉瓦的AMD GPU算力 [8][9] - 合作采用"技术+股权"双轮驱动模式,AMD向OpenAI发行至多达1.6亿股普通股的认股权证 [9] - 若OpenAI行使全部认股权证,将获得AMD约10%的股权,成为其重要战略股东 [9] - 首批1吉瓦部署将于2026年下半年启动,采用AMD下一代Instinct MI450系列GPU [9] OpenAI与英伟达的合作 - 双方于9月22日宣布签署合作意向书,英伟达计划向OpenAI投资最高达1000亿美元 [10][11] - 投资用于支持OpenAI部署至少10吉瓦规模的英伟达AI系统,相当于400万到500万颗顶级GPU的算力总和 [11] - 投资采用与算力部署进度深度绑定的模式,随每一吉瓦数据中心上线逐步投资 [11] - 第一个1吉瓦规模的AI系统预计于2026年下半年上线,基于英伟达下一代Vera Rubin平台 [11] 合作战略意义分析 - 与英伟达合作有利于确保OpenAI在短期和中期内拥有最强大、最成熟的算力支持 [12] - 与AMD合作有助于构建多元化供应商体系,降低对单一供应商的依赖,增强供应链韧性 [12] - 与博通合作表明OpenAI试图通过设计专用加速器(ASIC),实现最高程度的软硬件协同优化和算力自主 [12]