GPU训练实例
搜索文档
云厂商破天荒涨价,未来一年算力供给会改善吗?| Jinqiu Select
锦秋集· 2026-03-20 23:00
行业核心观点 - 2026年全球云计算行业出现集体涨价,打破了近二十年的降价惯例,主要原因是全球AI需求爆发和核心硬件成本显著上涨 [1] - 云厂商涨价潮的本质是算力正从基础设施转变为稀缺资源,AI创业团队面临算力资源被大规模云服务商锁定、小型团队难以批量获取的局面 [2] - 当前的算力短缺是结构性的产能短缺,而非周期性供需波动,这导致算力从“成本项”转变为关乎产品节奏、商业模式乃至公司生死的“战略资源” [3][4] - 在算力成为战略资源的背景下,能够在正确时间窗口锁定足够算力的公司将在竞争中占据先手,而对供给侧瓶颈缺乏认知则可能在关键增长节点遭遇“有需求、无资源”的困境 [5][6] 云厂商涨价与算力资源现状 - 2026年1月,AWS率先对GPU训练实例上调约15%,谷歌云随即宣布数据传输服务最高涨价100% [1] - 2026年3月,国内云厂商密集跟进:腾讯云率先上调自研大模型价格,涨幅最高达463%;阿里云与百度智能云宣布AI算力及存储产品涨价,最高涨幅34% [1] - 超大规模云服务商的集群资源已被牢牢锁定,小型团队几乎无从批量获取 [2] - 云服务厂商2026年数据中心资本支出预期较一年前大幅增长甚至翻倍,但仍被市场认为“不够用” [2] 算力供给侧的瓶颈分析 - 当前算力瓶颈已彻底进入硅芯片短缺阶段,先进的逻辑和存储器制造能力不足以支撑计算部署的步伐 [19] - 台积电N3逻辑晶圆产能是当前最大的制约因素之一,其产能扩张未能跟上AI需求的激增 [22][37] - 到2026年,所有主流AI加速器系列(包括英伟达、AMD、谷歌TPU、AWS Trainium、Meta MTIA)都将过渡到台积电N3系列工艺节点,AI将成为N3需求的主要来源 [28][29][30][31] - 2026年,人工智能相关应用(加速器、主机CPU和网络N3芯片)的需求将占N3芯片总产量的近60% [45] - 全球内存短缺问题短期内难以缓解,HBM高带宽内存供应紧张是下一个主要制约因素 [61] - HBM消耗的晶圆产能约为普通DRAM的三倍,随着向HBM4过渡,这一差距可能扩大到近四倍,挤占了普通DRAM的产能 [61] - 客户对更高HBM引脚速度(如约11 Gb/s)的需求进一步限制了HBM的有效供应,因为内存厂商难以以可接受的良率大规模交付 [68] - CoWoS先进封装的限制有所缓解,前端晶圆(如N3)供应成为主要瓶颈 [79] - 过去几年,数据中心和电力是主要瓶颈,但当前预测显示电力供应将超过AI计算需求,加速器硅的供应已成为主要制约因素 [81] 供应链竞争与厂商策略 - 在N3晶圆产能争夺中,人工智能基础设施客户的优先级明显高于消费电子产品客户,因为AI加速器设计带来更高的平均售价,且AI驱动的需求是台积电增长的主要动力 [51] - 由于需求远超供应,预计到2026年下半年,台积电N3工艺的有效利用率将超过100% [52] - 台积电受到洁净室空间的限制,未来两年内无法新增足够产能来完全满足市场需求 [52] - 产能限制可能促使客户寻求更广泛的晶圆代工模式,例如转向英特尔或三星晶圆代工 [40] - 英伟达在供应链控制上准备最充分,其通过提前锁定大部分逻辑晶圆、内存等组件供应成为主要受益者,例如2025年的韩国之行旨在确保内存供应 [85] - 最终能够获得最多硅供应的供应商将占据最大的计算部署份额 [85] 潜在的需求转移与产能再分配 - 智能手机是2026年N3晶圆需求的第二大驱动力,但也可能成为需求疲软的领域,从而释放产能用于AI加速器 [58] - 智能手机需求预期可能被下调至同比两位数的低位下滑 [58] - 如果将2026年智能手机N3晶圆总开工量的5%(43.7万片晶圆的5%)重新分配给AI加速器,则可额外生产约10万颗Rubin GPU或约30万颗TPU v7 [58] - 在更极端情况下,如果将25%的智能手机N3晶圆重新分配,则可额外生产约70万颗Rubin GPU或约150万颗TPU v7 [58] - 在消费级设备出货量下降的背景下,部分内存可能从消费级应用重新分配到服务器和HBM [76] - 在消费级内存出货量下滑10-15%的基本预测下,释放的容量增量(约占DRAM总需求的3%)不足以实质性改变整体供需格局 [78] 市场需求与增长数据 - Token需求呈爆炸式增长,推动了对人工智能计算的持续加速需求 [16] - 仅在2026年2月,Anthropic就新增了高达60亿美元的年度经常性收入,主要得益于智能体编码平台Claude Code的广泛应用 [16] - 超大规模云服务提供商的资本支出计划大幅调整,其中谷歌2026年的资本支出预期几乎是此前预期的两倍 [17] - 从H100到Rubin,以及从MI300到MI400等,AI加速器的HBM容量在快速提升(如提升50%甚至4倍),驱动了HBM位出货量的急剧变化 [66] - NVIDIA下一代平台的AI服务器系统内存将大幅增长,VR NVL72机架的DDR内存容量将是Grace的三倍 [71] - 2026年DRAM的整体位需求预计将出现增长,同时AI工作负载正在推动CPU需求,并逐步提高CPU与GPU的比例 [71]