Workflow
OpenAI自研芯片内幕曝光!18个月前开始用AI优化芯片设计,比人类工程师更快
博通博通(US:AVGO) 量子位·2025-10-14 13:39

合作核心内容 - OpenAI与博通达成战略合作,共同部署由OpenAI设计的10GW规模的AI加速器 [5] - 博通将从2026年下半年开始部署配备AI加速器和网络系统的机架,并于2029年底前完成全部部署 [5] - OpenAI负责芯片与系统设计,博通负责合作开发与投入部署 [6] - 10GW电力规模相当于10000兆瓦,足以同时点亮约1亿个100瓦灯泡 [10][11] 合作战略意义 - 通过自研芯片实现垂直整合,将前沿模型开发经验直接嵌入硬件以解锁新能力与智能水平 [7][20][21] - 定制加速器旨在满足现有芯片无法覆盖的特定计算任务或工作负载 [20][21] - 合作凸显定制加速器重要性及以太网作为AI数据中心纵向与横向扩展网络核心技术的战略地位 [13] - 有助于OpenAI缓解算力紧张问题,其ChatGPT每周有近8亿活跃用户 [14][15] 自研芯片动因 - 对AI工作负载的深刻理解以及实现公司使命需要进行垂直整合 [18][22][23] - 在2017年发现规模扩展对AI系统的巨大作用,自研芯片是实现算力扩展的重要举措 [28][29][30] - 与外部芯片公司合作时,关于模型发展方向与形状的反馈未被采纳,缺乏话语权 [30][31] - 公司CEO转变观点,认为垂直整合是实现使命的必要途径,并以iPhone的成功为例 [22][23][24] 预期效益与技术应用 - 通过优化整个技术堆栈,预计能从每瓦特中榨取更多智能,实现巨大的效率提升 [31] - 效率提升将直接转化为更好的模型性能、更快的模型训练速度以及更低的模型成本 [31] - 已在利用AI模型优化芯片设计,其优化速度比人类工程师更快 [32][33] - AI模型提出的优化方案通常是人类专家清单上的项目,但能显著缩短实现时间 [34] 整体战略布局 - 公司采取“自研+合作”路线突破算力瓶颈,除博通外也与英伟达、AMD等厂商合作 [36][37][40][41] - 与英伟达的合作规模同样为10GW,预计使用数百万块GPU,并获得高达1000亿美元投资 [37][38] - 自研芯片布局已持续约18个月,并在o1模型开启推理浪潮后开始专门设计推理芯片 [18][43]