AI能耗

搜索文档
海底数据中心 AI时代的能耗最优解?
钛媒体APP· 2025-09-03 16:06
AI数据中心能耗增长趋势 - 预计到2027年AI数据中心容量复合年增长率达40.5% 能源消耗复合年增长率达44.7% 2027年达146.2太瓦时[1] - 2024年全球数据中心耗电415太瓦时 占全球总用电量1.5% 相当于英国全年用电量[1] - 美国数据中心耗电180太瓦时占全球45% 中国占25% 欧洲占15% 中国年耗电量约100太瓦时 相当于国内电动汽车年用电量[1] - 国际能源署预测2030年全球数据中心用电将达945太瓦时 接近日本全国用电规模[1] - GPT-4模型训练14周消耗42.4吉瓦时电力 日均耗电0.43吉瓦时 相当于2.85万户欧美家庭日均用电量[1] 传统冷却系统面临挑战 - AI服务器单机柜功率从10kW跃升至50kW以上 突破风冷系统散热极限[2] - 传统风冷数据中心搭载H100 GPU后PUE值从1.3飙升至1.8 部分高热区域出现服务器宕机[2] - 数据中心冷却系统在AI需求爆发前已占据40%能耗[2] 数据中心技术演进方向 - 降低内部设备功耗 采用液冷或间接蒸发冷却技术减少供冷能耗 采用高压直流供配电降低电力损耗[4] - 优化数据中心建设选址 通过特殊环境降低能耗 如华为挖山建设机房 海兰信建设海底数据中心[5] - 微软2015年部署全球首个海底数据中心 2018年在苏格兰海底117英尺深处部署864台服务器的数据舱[5] 海底数据中心优势 - 微软海底数据舱运行两年故障率仅为陆地1/8 PUE值低至1.07 通过铜制散热片将热量传递至4-12℃深层海水[5] - 海兰信2023年海南陵水项目PUE值约1.1 电能损耗降低10%以上 能效提升30%以上[6] - 完全封闭环境降低人为因素故障率 延长服务器寿命 真空无尘环境提升可靠性[6] - 海底数据中心TCO较陆地低15-20% 海南陵水单个数据舱建设成本3300万元 年节省电费660万元 五年收回投资[6] - 陆地液冷数据中心PUE可降至1.15 但建设成本增加30% 单机柜年耗水200立方米[7] - 微软测算5000机柜海底数据中心十年可节省运营成本1.2亿美元[7] - 余热回收可带动周边海域渔业发展 形成生态闭环产生额外价值[7] 海底数据中心挑战与优化 - 数据舱位于海底运维难度大 需吊出海面进行维护 服务器更新换代频繁增加额外费用[8] - 海兰云推出海底数据中心2.0项目 采用潜入式方案固定数据舱 预留运维管道方便人员进出[8] - 上海海底项目深度20米 避免风浪影响 提供潜入式运维条件 预计9月中旬投产[9] - 项目规模200MW 95%电力采用海上风电供应 进一步降低PUE 备接市电确保业务连续性[9] 算力调度平台发展 - 算力调度运营平台成为提升算力利用率最佳路径 需与海底数据中心基础设施建设结合[9] - 企业自建算力基础设施存在一次性投入大 周期长 机房利用率低(不足30%)等弊端[10] - AI算力需求爆发催生算力服务商 算力买卖过程中调度平台成为关键抓手[10] - 算力平台需满足高性能通信要求 才能实现良好调度效果[11] 未来算力产业架构 - 未来算力产业将形成"海底节点+陆地集群+边缘终端"协同体[11] - 海底数据中心承担大模型训练高密算力 陆地液冷集群处理实时推理 边缘节点支撑毫秒级响应[11] - 三者通过智能调度平台形成动态平衡 成为应对AI多元化需求最优解[11]
腾讯研究院AI速递 20250825
腾讯研究院· 2025-08-25 00:01
开源大模型进展 - xAI开源Grok-2模型权重和架构 采用MoE架构拥有9050亿总参数 推理时激活1360亿参数 支持128k上下文长度 商业使用限于年收入低于100万美元的公司 模型体积超500GB 需8张显存大于40GB的GPU部署[1] - Grok-3将在6个月后开源[1] AI推理优化技术 - Meta AI与加州大学提出DeepConf置信度筛选方法 通过实时监控置信度对推理路径动态筛选和加权投票 使开源模型在AIME 2025达到99.9%准确率 减少85% token消耗 无需外部工具[2] - 提供离线和在线两种工作模式 可直接应用于现有模型无需额外训练 在vLLM中仅需约50行代码集成[2] 企业战略调整 - OpenAI CEO Sam Altman将日常运营移交应用业务CEO Fidji Simo 本人专注筹集万亿级资金和超级计算项目[3] - Simo具有Facebook增长期和Instacart上市经验 将负责ChatGPT等消费级应用商业化 产品线可能扩展至浏览器 最快今年秋季在ChatGPT购物搜索引入联盟链接变现[3] 芯片技术突破 - DeepSeek V3.1使用UE8M0 FP8参数精度 引发寒武纪等国产芯片概念股涨近14%[4] - UE8M0 FP8为微缩块格式 全部8比特分配给指数位无符号位 大幅提高带宽效率和性能 与下一代国产芯片协同优化 让相同硬件运行更大模型 提高国产芯片性价比 多家厂商已联合验证该格式[4] 产业合作动态 - Meta与Midjourney合作获得AI图像和视频生成技术使用许可 将整合到未来AI模型中 开发与OpenAI Sora竞争的产品[5] - Midjourney成立于2022年未接受外部融资 年收入预计2亿美元 今年6月发布首款AI视频模型V1[5] 企业AI应用强制推广 - Coinbase CEO强制要求所有工程师试用GitHub Copilot和Cursor AI工具 对未按要求行动且无合理理由的员工直接开除[6] - 开发者社区对强制推广AI工具存在分歧 部分支持提升效率 部分担忧损害工作品质[6] 生物科技跨界合作 - OpenAI与Retro Biosciences合作开发GPT-4b micro模型 设计全新蛋白质 使细胞重编程技术效率提升50倍[7] - AI设计的RetroSOX和RetroKLF蛋白质命中率分别超30%和50% 不仅加速细胞重编程 还降低DNA损伤水平 为细胞疗法和抗衰老技术开辟新路径[7] 产品开发方法论 - Claude Code采用内部原型测试流程 工程师直接用Claude Code快速做功能原型 内部推广反响热烈后正式发布[8] - 小团队开发者倾向使用自动接受模式开启多个Claude并行处理任务 大企业偏爱先探索代码库制定详细计划[8] - 通过CLAUDE.md文件、自定义斜杠命令和钩子实现高度定制 配套SDK能在30分钟内搭建功能强大的代理原型[8] 平台竞争格局 - AI应用生成平台走向专业化与差异化发展 各平台在细分领域互补共存 形成多元格局[9] - 平台呈现三大类别:Prototyping原型设计、Personal software个人软件和Production apps生产应用 针对不同用户层级[9] - 超七成用户保持单一平台忠诚度 21%高级用户使用多个互补平台 未来各品牌将走向更深层次专业化[9] AI能耗透明度 - 谷歌发布首份AI能耗报告 显示中位Gemini提示词消耗0.24瓦时电力 相当于微波炉运行一秒 碳排放量为0.03克二氧化碳[10] - 能耗构成:AI芯片(TPU)占58% 主机CPU和内存占25% 备用设备占10% 数据中心开销占8%[10] - Gemini能耗一年内下降33倍 每个提示词消耗约0.26毫升水 为科技公司首次发布透明AI能耗评估数据[10]
AI算力狂飙,能源成最大瓶颈
半导体行业观察· 2025-07-27 11:17
AI芯片能效竞争 - AI超级计算机的能耗问题引发行业担忧,预计到2030年AI能源需求每年增长50% [3] - Cloudflare硬件负责人测试Positron的新型芯片,该芯片在AI推理任务上比英伟达芯片更具能效优势 [4] - Positron完成5160万美元融资,总融资额达7500万美元,其下一代芯片单位成本性能预计是英伟达的2-3倍,单位电力性能是3-6倍 [4][8] 行业竞争格局 - 英伟达硬件毛利率约60%,被业内称为"英伟达税",科技巨头和初创公司均试图绕过这一成本 [5] - 谷歌、亚马逊、微软投入巨资自研推理专用芯片,同时有至少十几家初创公司专注AI推理芯片开发 [4] - Groq公司芯片设计将内存嵌入芯片中,宣称运行速度超英伟达顶级产品,功耗仅为1/3到1/6 [7] 技术发展趋势 - 英伟达Blackwell系统在推理任务上的能效是上一代产品的25-30倍 [5] - 专用化设计成为趋势,新兴芯片公司针对AI任务从头设计芯片,而非沿用传统图形处理器架构 [6][7] - Cloudflare初步测试显示Positron芯片性能达标,可能推动其全球部署 [9] 行业挑战与矛盾 - 硬件效率提升可能被软件需求增长抵消,历史表明性能提升总会被超额使用 [9] - Google Cloud指出AI模型复杂度持续增加,整体能源需求增长无上限,能源生产成为AI发展瓶颈 [10] - Anthropic报告强调未来AI发展的真正限制在于能源供给而非芯片技术 [10]