Workflow
英伟达H800
icon
搜索文档
算力租赁产业交流
2026-04-20 22:01
行业与公司 * 行业:算力租赁产业,涉及AI服务器、GPU、数据中心、云服务[1] * 公司:提及的云厂商包括阿里云、腾讯云、字节跳动、百度(BAT)[4][6][9];提及的AI大模型公司包括智谱AI、MiniMax、月之暗面[10];提及的GPU供应商为英伟达(NVIDIA)及国产GPU厂商[1][3][12][13] 核心观点与论据 市场供需与价格趋势 * 算力租赁价格上涨趋势预计至少持续至2026年,核心驱动力是英伟达高端GPU(A/H/B/GB系列)供需严重失衡及中美贸易限制[1][3] * 2026年以来,头部互联网厂商AI算力投入加速,单体项目规模较2025年同期增长至少两到三倍[2] * 价格上涨具体表现为:H100等服务器旧合同到期后转为涨价并以价高者得模式出租,短租趋势更明显[2];BAT等大厂支付的H100月租金从7.5-8.5万元提升至9-9.5万元[9] * 供给短缺局面难以改变,因市场主流应用高度依赖英伟达生态,国产GPU两年内无法大规模有效替代[3] * 长期来看,算力租赁价格必然下降,国产算力生态发展及企业降本增效需求将驱动价格下行[20][21] 商业模式与客户结构 * 国内算力租赁主流模式分化:资金充裕的大厂和头部AI公司自持算力用于核心训练;资金不足的创业公司80%以上算力来自租赁;对外提供算力服务的企业则几乎100%通过租赁获得[6] * 业务模式呈现两极分化:一是服务资金雄厚的头部大客户(如大型互联网厂商),模式清晰稳定;二是避开大厂,深耕细分市场(如整合区域中小企业零散需求、专攻教育科研市场)[11] * 存在显著的中间商壁垒:至少三分之二的算力交易中,中间商截取利润,导致终端价格上涨10%仅能带动持有方净利率增长2%-3%[1][9] * 客户高度集中:大规模采购算力的客户高度集中于约十家头部公司[10] * 海外市场差异:美国由头部企业主导;"一带一路"国家多由中国企业提供算力解决方案,以换取当地资源[5] 成本效益与投资决策 * 企业选择公有云租赁与自建算力的性价比平衡点约为年IT成本3,000万元:低于此值云租赁合理,高于此值自建更经济[1][7] * 选择依据核心用途:对外提供经营性服务适合云租赁以快速弹性扩容;内部研发或优化生产流程则自建更具成本效益[7] * AI服务器残值远超预期:H100三年后残值预计达50%-60%,远高于传统CPU服务器的15%及早期预期的40%[1][7][8] * 高残值及租赁市场火爆导致设备持有方不愿出售,二手市场货源稀缺[8] * 算力成本结构变化:高昂的GPU投入(是传统CPU服务器的8到10倍)稀释了电力成本占比,使其在总成本中降至10%-15%,客户对电价敏感度下降[1][17] * 客户更关注机柜电力密度、数据中心规模(如能否支持100兆瓦以上万卡集群)及位置是否贴近核心用户[17] 国产GPU发展与政策影响 * 国产GPU在租赁市场的发展主要由政策强制驱动,预计两年内有望抢占三分之一市场份额[1][14] * 政府通过限制英伟达GPU进口、在数据中心能耗指标审批中强制配置国产算力、将使用国产算力与其他政策支持挂钩等方式,倒逼企业进行国产化适配与生态建设[12][13][18] * 从2026年开始,一线城市对英伟达GPU的算力补贴已基本全面停止,补贴力度明显退坡[12] * 国产算力实际应用挑战大:企业因投入成本高、适配麻烦(如需要更高薪的研发人员调优)而不愿使用;目前真实规模化应用集中在有资金和科研能力的头部公司,部分与融资条件绑定[13] * 政府限制进口变相制造了商业算力短缺,旨在为国产算力产业创造发展空间[18] * H100等高端GPU目前基本无法通过常规渠道进入中国,仅特殊涉密研发项目可获准进口,这为国产卡创造了巨大市场机会[19] 设备与合同细节 * 主流租赁型号及月租金(八卡服务器):A100/A800约4万元;H100/H800/H200一年期整租约7-7.5万元,短租(≤3-6个月)约8-9万元;B200预估至少12-13万元(无零售订单)[14] * 采购价格:H100/H200八卡服务器约210-220万元;B200价格混乱,香港拿货价最低380万元,国内成交价高达460-470万元[15] * 合同与折旧变化:GPU集群签约周期从3年普遍延长至5年,设备折旧周期按3至5年计算[15] * 早期采购成本:2024年H100服务器售价250-280万元(含多层中转成本),当前二手回收价170-180万元(相当于当时出厂价八折到八五折)[7] * 算力持有方净利率:考虑政府补贴和超低息贷款,项目净利率约10%-15%,毛利率约20%-25%[8] * 租赁商主要成本:除折旧外,需承担设备维修费及为保障连续性而准备的备机成本(如千卡集群需备3-10台新机)[16] 其他重要内容 * 云厂商定价策略:利用紧张GPU算力资源作为杠杆,以优先分配算力为条件,促使年消费额在1,000万以内的中等体量用户接受原有云服务涨价[1][4] * 头部厂商算力布局:2025年前,字节跳动存量算力最大且重资产在东南亚,阿里在国内和东南亚均有布局(国内占比较大);2026年字节开始重点布局国内市场[6] * 技术演进影响:AI服务器追求更高算力密度(如从8卡发展到16卡、32卡),推动光模块(CPO)等互联配套设施需求成倍增长,但对传统服务器市场影响不大[9] * 算力需求驱动:AI应用对Token消耗的爆发式增长及中小企业全面拥抱AI研发[2] * 行业政策:工信部对过度"内卷"和价格战的指导也是云服务价格回升的因素之一[4] * 长期生态展望:国产厂商正发展以Token计费的服务模式,致力于构建互联互通的"算力工厂"生态[20]
华为芯片,让英伟达黄教主坐不住了
21世纪经济报道· 2025-07-07 16:56
核心观点 - 华为昇腾CloudMatrix 384超节点在部分性能上超越英伟达GB200机柜,整体计算能力达后者的1.6倍[1][13] - 昇腾通过集群化设计弥补单芯片性能差距,实现从"备胎"到"主力"的转变,成功训练出千亿参数大模型[3][6][32] - 昇腾在算力利用率(MFU)上达到全球一流水平,稠密模型MFU超50%,MoE模型达41%-45%[9][10] - 昇腾384超节点采用光互联等系统性工程突破,实现384芯片高效协同,技术路径与英伟达差异化[16][21][29] 技术性能对比 - 单芯片性能为英伟达Blackwell的三分之一,但384超节点通过5倍芯片数量实现系统算力反超[13] - 推理性能对标英伟达H100,在DeepSeek-R1模型测试中算力利用率获全场最佳[11] - 英伟达GB200机柜仅集成72块GPU(下一代144块),华为突破384芯片互联技术[19][20] 技术路径创新 - 采用全对等互联架构与光缆连接,传输效率优于英伟达NVLink铜缆方案[27][29] - 结合鲲鹏CPU与昇腾NPU协同优化,实现"数学补物理"的系统级创新[24][32] - 自研CANN软件栈替代CUDA生态,支持分钟级故障恢复等工程优化[32] 行业竞争格局 - 国内AI芯片形成三大派系:科技巨头(华为/百度/阿里)、纯芯片厂商(寒武纪/燧原等)、细分领域企业(地平线等)[36] - 英伟达仍保持3nm工艺领先优势,CUDA生态历史积淀深厚[33][34] - 美国制裁背景下,昇腾在中国市场加速替代英伟达H20受限产品[36][37] 发展前景 - 华为通过"面积换性能"策略开辟中国特色技术曲线,实现弯道超车[38][39] - 昇腾已验证国产芯片训练千亿参数模型能力,标志国产算力进入实用阶段[6][40]
华为芯片,究竟有多牛?(上)
21世纪经济报道· 2025-07-06 11:12
华为昇腾芯片性能突破 - 昇腾384超节点整体计算能力达英伟达GB200机柜的1.6倍 [3][10] - 单芯片性能为英伟达Blackwell三分之一,但通过5倍芯片数量堆叠实现系统算力反超 [10] - 在DeepSeek-R1大模型推理实战中,昇腾算力利用率表现最佳,对标英伟达H100 [10] 昇腾技术进展与成果 - 昇腾910从"备胎"升级为训练千亿参数大模型的主力芯片 [4][6] - 使用8192颗昇腾芯片训练1350亿参数稠密大模型"盘古Ultra",MFU超50% [6][9] - 6000多颗芯片训练7180亿参数MoE大模型,MFU达41%-45% [6][9] 昇腾与英伟达竞争格局 - 昇腾在AI推理环节已广泛应用,模型训练能力2024年后显著提升 [4][5] - 采用集群剑阵策略弥补单卡性能差距,实现系统级性能领先 [2][10] - 海外机构SemiAnalysis确认昇腾系统算力超越英伟达最新产品 [3][10] 国产算力发展现状 - 昇腾成为国产AI芯片标杆,突破制裁限制实现自主训练能力 [4][6] - 技术论文验证国产芯片可支撑千亿级参数大模型训练 [6] - 算力利用率(MFU)指标达到全球一流水平 [9][10]