AI催生巨量Token消耗、内存硬件紧缺 算力租赁热潮下 运营商加码布局液冷服务器
每日经济新闻·2026-02-15 19:36

AI应用与Token消耗激增 - AI应用正从聊天对话框走向物理世界,国内外科技巨头通过红包大战和桌面智能体应用推广,加速用户向聊天机器人和智能体迁移 [1] - AI大模型及应用的发展带来内存和存储需求增加,导致Token消耗量持续快速增长 [3] - 截至2025年12月,字节跳动豆包大模型日均Token使用量突破50万亿,较上年同期增长超过10倍,相比2024年5月推出时增长达417倍 [4] - 截至2025年10月,谷歌各平台每月处理的Token用量达1300万亿(日均约43.3万亿),而一年前月均仅为9.7万亿 [4] 算力需求与成本连锁反应 - Token用量的指数级增长推升推理量,加速了Token消耗,并引发算力连锁反应 [2][4] - 云服务厂商开始上调价格,亚马逊云于2026年1月23日上调其EC2机器学习容量块价格约15%,谷歌云也宣布自2026年5月1日起对AI与计算基础设施服务进行价格调整 [5] - 国内高性能AI算力板块受芯片供应与电力、散热等基础设施瓶颈限制,实际成本压力持续上升,部分头部云服务商正评估对专属AI集群或预留型算力产品进行结构性调价 [5] - 若GPU资源持续紧缺,国产云平台可能适度跟进国际定价趋势,推动行业进入“价值导向”新阶段 [5] 算力租赁市场供不应求 - 内存和GPU价格上涨促使更多AI公司从自建算力转向算力租赁,算想科技购买的服务器价格比2025年初上涨约30%,算力租赁价格相应上涨20%~30% [7] - 市场对算力需求增加,算力租赁目前基本处于供不应求状态,只要有算力服务器基本不愁租 [7] - 英伟达于2026年1月26日宣布向AI云端运算企业CoreWeave投资20亿美元,以加速其在2030年前增加超过5GW AI计算能力的进程,验证了AI云基础设施的高景气度 [8] - AI大模型训练和推理需求的快速增长是存储行业复苏的核心动力,高性能存储产品需求爆发式增长,HBM成为AI服务器核心配套器件和头部厂商业绩增长支柱 [6] 边缘算力与算力结构演变 - AI价值主战场正在端侧与边缘侧全面展开,市场正从模型侧竞争走向应用端竞速,推理算力需求凸显 [9] - 推理算力可以有更高性价比的芯片选择,布局上不完全依赖数据中心,边缘算力服务器节点也可以满足市场需求 [9] - 全球边缘及终端AI推理芯片市场规模已于2024年达到3792亿元,预计至2030年将扩增至16123亿元,年复合增长率达27.3% [10] - 算想科技计划在人口密度大的城市周边布局算力节点,目标在2026年达到五万卡GPU,并织就一张覆盖全国的边缘计算网 [10] - 大量由旧数据中心改造的“智算中心”存在结构性矛盾,单机柜功率提升后,空间与电力配套严重浪费,许多项目无法有效运转 [9] 液冷技术成为绿色算力关键 - AI服务器功率密度激增,据高盛预测,到2027年,AI服务器单个机架的功率密度将是5年前普通云服务器的50倍,供电能力成为AI扩展的关键瓶颈 [10][11] - 国家政策对数据中心能耗约束趋严,新建大型及以上数据中心PUE需≤1.25,改造后存量数据中心PUE需≤1.5,推动绿色算力发展 [11] - 相比传统风冷PUE普遍在1.5以上,液冷方案PUE可降低至1.1~1.2,强劲驱动力正推动液冷市场实现数量级的规模扩张 [2][11] - 浸没式液冷服务器是未来行业趋势,行业增长规模呈指数级,浸没式液冷未来有非常大的发展空间 [11] 液冷产业链发展与商业化 - 在浸没式液冷技术路径上,氟化液、硅油、合成油多种介质并存,其中硅油冷却液从性能、安全环保与成本综合考虑有相对优势,未来有望迎来规模化应用 [2] - 算想科技目前液冷服务器占比不到5%,但预计后续占比将达到60%~70%,2025年公司在液冷服务器设计布局上取得技术突破平抑了部分成本,2026年将加大布局力度 [12] - 新安股份携手算想科技在杭州落地首个商用浸没式硅基液冷算力项目,采用高功率密度浸没式液冷架构,单机柜功率密度达210kW,该项目已正式投入运行 [12] - 该项目验证了硅基液冷材料在真实负载环境下的可靠性与经济性,为后续规模化复制提供了成熟样板,推动有机硅业务向算力基础设施等高附加值终端应用升级 [13] - 英伟达采用陶氏化学的有机硅冷却液,国内硅基冷却液赛道中,润禾材料、新安股份等企业已推出相关产品并实现销售 [12]