百万倍算力增长的背后,AIDC如何建设才能“跟上需求”?
钛媒体APP·2025-10-29 13:27

AI算力需求爆发式增长 - 到2035年,全社会算力总量将增长10万倍[2] - 中国日均Token消耗量从2024年初1000亿增长至2025年6月的30万亿,增长300多倍[3] - 2024年全年中国公有云大模型调用量为114万亿Tokens,2025年上半年即飙升至536.7万亿Tokens[3] - 全球20亿活跃AI用户产生的海量数据处理需求使AIDC从"辅助设施"升级为"核心生产力"[3] 智算中心建设面临的挑战 - AI大模型训练对算力连续性要求较传统通算提升两个量级:10MW智算中心算力密度相当于100个传统通算中心[4] - 智算中心故障响应时间需压缩至30秒,传统数据中心要求2分钟以内,故障影响半径扩大3倍[4] - 单机柜功率从2.5kW标准提升至8kW、10kW,甚至20kW、50kW[5] - AIDC时代"白空间"与"黑空间"比例从传统2:1逆转为1:3,3/4场地被配电、散热设备占据[6] - 传统数据中心18到24个月建设周期与算力"一年一迭代"速度形成致命错配[7] - 服务器更新周期3到5年,数据中心基础设施设计寿命10至15年[7] 华为AIDC解决方案框架 - 提出RAS理念:Reliable安全可靠、Agile弹性敏捷、Sustainable绿色低碳[8] - 构建覆盖产品、架构、管理、运维的四层防护体系,实现从器件到系统全生命周期可靠[8] - 锂电池告警覆盖率92%,报警准确率97%,最高可提前七天预警[9] - 通过"解耦化、模块化、预制化、高密融合"四化方案将数据中心交付周期缩短60%以上[10] - 将AIDC拆分为IT、供配电、制冷三大独立子系统,实现串行施工向并行施工转变[11] - 华为云(芜湖)数据中心机电安装仅用71天完成,较传统方案节省50%时间[11] 绿色低碳技术路径 - 华为UPS在S-ECO模式下效率高达99.1%[14] - 通过高效供电、高效制冷、系统高效、算电协同四大路径实现全链路降碳[13] - 风冷和液冷系统走向融合化,冷源统一化,通过AI手段对制冷系统做系统级能效调优[15] - 打通L1能源基础设施与L2算力基础设施信息流,通过AI算法根据负载波动调节设备状态[15] 行业发展趋势 - 计算领域将突破传统冯•诺依曼架构束缚,在计算架构、材料器件、工程工艺、计算范式四大核心层面实现颠覆性创新[3] - 数据中心设计思路从"大系统"向"标准化+模块化分布式架构"演变[16] - AI算力需求推动数据中心向超高功率、超高密度和超大规模发展[16]