Blackwell 系列
搜索文档
云算力涨价潮:当GPU从贬值预期走向供不应求
傅里叶的猫· 2026-04-02 23:08
一、Michael Burry的预言失效与市场反转 - 2025年11月,“大空头”Michael Burry基于GPU生命周期仅2-3年的逻辑看空英伟达,认为旧卡将随新品推出而迅速贬值[2] - 然而市场在4个月后给出相反答案:H100 GPU的一年期租赁价格从2025年10月的价格暴涨至2026年2月的2.35美元/小时/GPU,涨幅高达40%[5] - 服役近4年的H100供不应求,所有GPU类型的按需租赁容量完全售罄,到2026年8-9月的新增产能已被预订一空,甚至出现以14美元/小时/GPU的价格购买AWS p6-b200现货实例以及续约至2028年的情况[5][7] - 市场反转的核心原因是其低估了Agent AI的爆发速度及其对算力需求的根本性重构[7] 二、Agent AI重构算力需求 - 2026年初“龙虾热”(以Claude Code为代表的Agent应用爆发)标志着从Chatbot时代进入Agent时代,带来了使用模式的根本性转变[8] - **Token消耗量级跃升**:Chatbot时代单次对话消耗500-2,000 tokens,而Agent时代单个任务消耗80,000-150,000 tokens,增长达40-75倍[9][10] - **消耗暴增的三大机制**: 1. **多轮推理循环**:采用“推理→行动→反思”循环,每次循环都需重新调用大模型[11] 2. **长上下文记忆**:每次请求需携带完整上下文和历史记录,导致token消耗量级跃升[11] 3. **多模态内容爆炸**:处理截图等任务,单次截图可能消耗4,000-5,000 tokens[11] - **标志性案例与市场验证**: - Claude Code预计到2026年底将占全球日代码提交量的20%以上[13] - Anthropic的ARR(年度经常性收入)在单个季度内从90亿美元飙升至250亿美元,增长近3倍[13] - 中国市场:中国每日token消耗达140万亿(工信部数据),其中字节跳动单家日消耗在2026年3月达100万亿,较2025年12月的63万亿增长近60%[14][15] - **行业需求判断**:预计全年算力需求增长30-50%,B端落地时间从传统预期的12个月缩短至6-9个月,预计Q3左右将看到较多落地案例[15] 三、GPU租赁价格上涨的双重逻辑 - **全球市场:供应链成本螺旋式上升与高ROI支撑** - 2026年初AI供应链经历“定价末日”,组件成本快速上涨[18] - LPDDR5内存价格同比上涨约4倍,DDR5内存价格同比上涨约5倍[19] - AI服务器涨价幅度超过了底层组件成本的增幅,OEM为管理利润风险以超过成本增幅的水平重新定价[18][19] - 需求侧因AI工具的投资回报率(ROI)达5-10倍而相对非弹性,即使价格上涨用户仍愿付费,支撑价格上行[18][20] - **中国市场:主动的客户筛选策略** - 云厂商涨价核心目的是筛选客户,而非单纯转嫁成本,旨在淘汰低质量用户、锁定付费客户[21] - 短期原因:预判B端需求将在Q3明显提升,进行前瞻性定价[23] - 深层原因:验证付费意愿,区分高价值用户与低价值用户[24] - 国内云厂商AI算力输出中仅约20%的负载或tokens量对外产生收入,大部分为内部使用[22] - **涨价的分层结构与长期性** - 涨价并非针对所有客户,主要针对中小型客户和新签客户,大客户长协价格相对稳定[28] - 市场力量转移至供应方(Neoclouds和Hyperscalers),可协商更有利的条款[28] - 行业共识为此轮涨价是持续1-2年的周期,而非短期波动[28] 四、市场格局重塑 - **聚合平台的利润困境**:自持算力比例低(如低于40%)的轻资产模型聚合平台,在涨价环境下若无法将成本传导至上游或扩大规模,将面临显著利润压力[30] - **大厂的自持算力战略转向**:大型云厂商正大幅提高自持算力比例,如阿里云部署大量自研PPU,字节跳动进行自研芯片并购买大量国产芯片[31] - 核心逻辑是通过优化架构(如Prefill和Decode分离)在长期TCO上实现成本下降[32] - 需求旺盛延长了GPU的经济使用寿命,提高了Neocloud的投资资本回报率(ROIC)[32] - **火山引擎的战略两难**:在主要云厂商涨价背景下,火山引擎若坚持不跟涨,是切入大B市场的窗口期;但长期低价不可持续,最可能路径是在重点行业保持价格竞争力,在其余行业跟进涨价[33] 五、GPU涨价周期的持续驱动力 - **驱动力一:B端需求尚未释放**:Agent应用向B端的传导预计在Q3左右看到较多落地案例,企业级产品已就绪,待安全问题解决后将积极采用[35] - **驱动力二:ROI的持续验证**:使用AI工具的ROI达5-10倍,需求曲线相对非弹性,为推高GPU租赁价格提供了强大力量[37][38] - **驱动力三:新增产能被快速消化**:直到2026年8-9月上线的所有容量已被预订,Blackwell交付周期也延长至6-7月[39] - 关键问题在于新增算力可能仍无法满足激增的token需求[39] - 供应紧缩和价格上涨促使Neoclouds抢先确保更多硬件,形成进一步收紧供应并推高价格的正反馈机制[39] - **综合结论**:基于上述驱动力,GPU租赁价格更可能继续上涨而非下跌[39]
消息称黄仁勋重组英伟达云团队:放弃死磕AWS、专注卖“铲子”
搜狐财经· 2025-12-28 14:21
公司战略调整 - 英伟达于上周低调重组了其云计算团队,这一动作被业界解读为公司正式退出了与亚马逊 AWS、微软 Azure 等云巨头的正面竞争 [1] - 公司曾于2023年推出超级计算机云租赁服务 DGX Cloud,试图构建独立的云生态,但面对资本密集型市场,最终选择了务实回调 [1] - 重组后的云团队不再背负激进的市场扩张 KPI,而是被整合进更广泛的工程职能中,其首要任务转变为服务内部需求 [3] 业务转型原因 - DGX Cloud 的初衷是让企业能以更低门槛访问其顶级 AI 算力,但作为一家硬件基因深厚的公司,英伟达在构建全球数据中心基础设施和软件生态方面遭遇了巨大阻力 [3] - 该服务高昂的定价和复杂的集成难度,使其难以从成熟的 AWS 手中抢夺客户 [3] - 转型后的 DGX Cloud 将扮演全新角色,成为英伟达内部芯片的顶级测试场,用于测试和优化自家的下一代 AI 芯片(如 Blackwell 系列) [3] 转型后的新策略 - 公司选择利用 DGX Cloud 平台在内部云环境中模拟高负载 AI 工作流,工程团队能更快发现硬件瓶颈,从而加速产品迭代 [3] - 这种"内循环"策略,避免了对外服务的运维压力,并直接反哺了核心硬件业务的竞争力 [3] - 华尔街对这一"做减法"的决策反应积极,分析师指出放弃云服务争夺战意味着英伟达无需再投入数百亿美元建设数据中心,从而能将宝贵资金集中于高利润的研发领域 [4] 市场影响与评价 - 在 AI 基础设施成本飙升的当下,英伟达选择避其锋芒、专注卖"铲子",被视为一种成熟的商业智慧 [4] - 此举有助于其维持目前接近 3 万亿美元的市值高位 [4]