AI算力爆发式增长 数据中心面临哪些挑战?专家这样说
每日经济新闻·2025-09-18 00:12
随着人工智能(AI)技术飞速发展,算力需求呈现爆发式增长。从GPT-1到GPT-5,模型参数量从1.17亿跃升至数万亿,模型结构也在不断演进,从稠密 LLM模型向MoE稀疏化模型以及多模态模型持续演进。 面对这一趋势,单纯依靠传统服务器的简单堆叠已无法满足需求,AI算力设施正加速向高密度、液冷化、集群化方向演进,这不仅带来了更高的功率负载 和更复杂的散热要求,也对传统数据中心的散热、供配电系统、网络设计等提出了新的挑战。 9月17日,在上海召开的首届AIDC产业发展大会上,中国电子工程设计院数据中心事业部副总经理王志强向包括《每日经济新闻》在内的媒体记者表 示:"当前整个GPU芯片及AI集群的功率密度演进速度,已超过传统云数据中心的技术演进路径。超高密度、超大规模部署,使基础设施在动力适配、楼体 结构、空间规划等方面面临巨大挑战。" 在王志强看来,为匹配AI负载的快速演进对算力的需求,机房要具备足够的灵活性和弹性扩展能力,并且在机房的规划和建设模式上也需具有前瞻性。 算力设施将走向高密、液冷 事实上,随着AI训练与推理任务复杂度的不断提升,单机柜功率正从当前的50kW(千瓦,功率计量单位)向300kW甚至更高 ...