Workflow
谷歌Gemini一次提示能耗≈看9秒电视,专家:别太信,有误导性
机器之心·2025-08-22 12:58

谷歌Gemini AI模型能源消耗研究 - 谷歌发布AI模型Gemini能源消耗研究报告 处理单个中位数文本提示消耗约0.26毫升水(约五滴) 0.24瓦时电力(相当于观看电视不到九秒) 产生0.03克二氧化碳排放[1][4] - 采用综合测算方法(Comprehensive Approach) 相比传统方法(Existing Approach)能耗从0.10 Wh/提示增至0.24 Wh/提示 碳排放从0.02 gCO2e/提示增至0.03 gCO2e/提示 水耗从0.12 mL/提示增至0.26 mL/提示[5] - 2024年5月至2025年5月期间 单个文本提示能耗降低33倍 碳足迹减少44倍[5] 全栈式效率优化措施 - 模型架构基于Transformer 效率较此前最先进语言建模架构提升10至100倍 采用MoE和混合推理模式等优化方案[7] - 算法层面采用AQT(Accurate Quantized Training)方法 通过推测性解码和蒸馏技术打造轻量高效服务模型(Gemini Flash与Flash-Lite)[9] - 硬件层面自研TPU实现每瓦性能最大化 最新一代Ironwood TPU较最早公开TPU能效提升30倍 推理任务能效远超通用CPU[9] - 软件层面通过XLA机器学习编译器 Pallas内核及Pathways系统确保模型高效运行于TPU推理硬件[9] 数据中心能效管理 - 谷歌数据中心属行业最高效类别 平台平均PUE(电源使用效率)达1.09[10] - 冷却系统持续优化 在能耗 水耗与碳排间实现本地化平衡 在水资源紧张地区限制用水量[10] 专家质疑与争议点 - 专家指出报告未计算间接用水量 发电厂冷却和驱动涡轮机消耗的水资源远超数据中心直接用水量[13][14] - 碳排放核算仅采用基于市场方法(通过购买可再生能源证书抵消) 未反映对当地电网的实际影响 应同时纳入基于地理位置的碳排放数据[15] - 数据比较被指误导 谷歌仅计算直接用水量却与包含总用水量的研究对比 称结果"低了几个数量级"[15] - 使用中位数而非平均值 且未提供计算中位数的具体数据(如提示词数或token数量) 导致外部难以验证结果代表性[16] 效率提升与总体消耗矛盾 - 存在"杰文斯悖论"风险 效率提升可能刺激更多使用 导致总体资源消耗和污染不降反增[17] - 谷歌可持续发展报告显示 自2019年以来基于雄心的碳排放量增长51% 仅去年一年就增长11%[17]