AI催生巨量Token消耗 算力租赁供不应求
每日经济新闻·2026-02-24 20:37

AI应用与Token消耗激增 - AI应用正从聊天对话框走向物理世界,国内外大厂和应用(如Open Claw、Cowork)推动全民AI应用和桌面智能体热潮,加速用户从传统搜索转向聊天机器人并培养商业习惯,这一进程推升了推理量 [1] - AI大模型及应用发展带来更多内存和存储需求,导致Token消耗量持续增加,Open Claw等AI自动运行应用可快速消耗Token [3] - 2025年科技巨头日均Token使用量呈指数级增长:字节跳动豆包大模型2025年12月日均Token使用量突破50万亿,较上年同期增长超10倍,较2024年5月推出时增长达417倍;谷歌2025年10月各平台月处理Token用量达1300万亿(日均43.3万亿),一年前月均仅为9.7万亿 [4] 算力需求与成本压力 - AI算力需求持续增长,但数据中心能耗约束趋严,PUE成为衡量绿色算力的关键指标,政策要求新建大型及以上数据中心PUE需≤1.25,改造后存量数据中心PUE≤1.5 [1][11] - 算力需求增长及硬件价格上涨加剧算力租赁需求:算想科技GPU规模从2025年初2000卡迈入万卡规模;内存和硬盘价格上涨带动服务器价格比2025年初涨约30% [1][7] - 云服务厂商因芯片供应、电力散热等基础设施瓶颈及成本压力上调价格:亚马逊云2026年1月上调EC2机器学习容量块价格约15%;谷歌云自2026年5月1日起对AI与计算基础设施等服务调价;国内头部云服务商评估对专属AI集群或预留型算力产品进行结构性调价 [4][5] 算力租赁市场动态 - AI大模型训练和推理需求快速增长是存储行业复苏核心动力,高性能存储产品(如HBM)需求爆发式增长 [6] - 内存和GPU价格上涨促使更多AI公司从自建算力转向算力租赁:算力租赁新客户价格随行就市,较硬件市场价格上涨20%~30%;市场对算力需求增加,算力租赁基本处于供不应求状态 [7] - 行业巨头投资强化市场预期:英伟达2026年1月向算力租赁公司CoreWeave投资20亿美元,以加速其在2030年前增加超5GW AI计算能力,验证AI云基础设施高景气度 [8] 算力市场结构演变与边缘计算 - 算力市场存在结构性矛盾:大量“智算中心”由旧数据中心改造而来,单机柜功率提升后空间与电力配套严重浪费,许多项目无法有效运转 [9] - AI需求从模型侧训练算力转向应用端推理算力:训练算力需要英伟达H100/H200等高性能GPU,而推理算力可有更高性价比芯片选择,且不完全依赖数据中心,边缘算力服务器节点也可满足需求 [9] - 边缘计算市场高速增长:全球边缘及终端AI推理芯片市场规模2024年达3792亿元,预计2030年将扩增至16123亿元,年复合增长率达27.3% [10] - 算想科技聚焦边缘计算算力租赁,计划在人口密度大的城市周边布局算力节点,目标2026年达到5万卡GPU并织就覆盖全国的边缘计算网 [10] 绿色算力与液冷技术发展 - 数据中心能耗密度指数级跃升:高盛预测到2027年,AI服务器单机架功率密度将是5年前普通云服务器的50倍;电力供应成为AI扩展的关键瓶颈 [10][11] - 液冷方案是降低PUE、实现绿色算力的关键:相比传统风冷PUE普遍在1.5以上,液冷方案PUE可降低至1.1~1.2,催生液冷服务器需求爆发 [1][11] - 浸没式液冷是未来行业趋势,行业增长规模呈指数级;液冷冷却液(如氟化液、有机硅油)是数据中心散热核心材料 [11][12] - 硅油冷却液在性能、安全环保与成本等方面有相对优势,有望迎来规模化应用;国内企业如新安股份、润禾材料已推出硅基冷却液产品并实现销售 [2][12] - 新安股份与算想科技落地首个商用浸没式硅基液冷算力项目,单机柜功率密度达210kW,验证了硅基液冷材料在真实负载下的可靠性与经济性,为规模化复制提供样板 [12][13] - 算想科技液冷服务器占比当前不到5%,但预计后续将达到60%~70%,2026年将加大液冷服务器布局力度 [12]

AI催生巨量Token消耗 算力租赁供不应求 - Reportify