Workflow
AI电源芯片
icon
搜索文档
数据中心,电力告急
36氪· 2025-12-02 17:57
文章核心观点 - 高盛报告指出,美国AI发展的最大障碍是电力,而非芯片、稀土或人才 [1] - AI算力需求激增导致数据中心电力消耗面临巨大挑战,并推动了电源管理技术的结构性变革 [3][8] - 行业正从芯片、架构和材料等多维度寻求解决方案,以提升能效、降低功耗,相关市场预计将快速增长 [4][7][13][15] 数据中心电力需求与挑战 - 单个英伟达H100 GPU峰值功耗700瓦,年耗电约3740度,相当于一个美国家庭的平均用电量 [2] - 2024年英伟达H100 GPU销量预计150万至200万块,其总功耗将超过美国亚利桑那州凤凰城所有家庭的用电量 [2] - 数据中心冷却系统是能耗主要组成部分,占总耗电量38%以上,部分甚至高达50% [3] - OpenAI总裁预测,未来20年AI算力需求将增加1万倍,到2050年全球AI耗电量至少需要130万亿度,而同期非AI人类用电量预计约为30万亿度 [3] 初创公司与技术解决方案 - 英特尔前CEO Pat Gelsinger加入电源芯片初创公司PowerLattice董事会,该公司已完成2500万美元新一轮融资 [4] - PowerLattice研发紧贴处理器的“芯片组”(chiplet)技术,声称可使计算机系统在保持相同算力下功耗降低50%以上 [4] - 其首批芯片已由台积电生产,计划2026年上半年向英伟达、博通、AMD等潜在客户提供测试 [5] - NXP前CEO Richard L. Clemmer加入另一家电源芯片公司Empower董事会,该公司已完成由富达领投的1.4亿美元D轮融资 [6][7] - Empower拥有专利IVR技术,将多个组件集成到单个IC中,提高了效率并将面积减小了10倍,目标是在AI市场实现千兆瓦级别的能源节省 [7] AI电源芯片的技术要求与市场格局 - AI电源需承受200%的峰值功率超载及180%的峰值功率,对瞬时功率突变响应速度极快,而传统电源通常只能短时承受100%-120%的额定功率 [9] - AI电源管理芯片(PMIC)需采用高性能、数字化的多相控制器和智能功率级(DrMOS),以纳秒级速度协同工作,英飞凌、MPS和德州仪器是头部企业 [10] - 国内AI电源芯片企业包括晶丰明源、杰华特、芯联集成、圣邦股份、芯朋微等 [11] - 晶丰明源2024年前三季度营收11.17亿元,净利润2332.97万元,其高性能计算电源芯片业务上半年收入同比暴涨419.81%,出货量增长121.49% [12] - 杰华特前三季度营收19.42亿元,净亏损4.6亿元;芯联集成营收54.22亿元,净亏损4.63亿元;圣邦股份营收28.01亿元,净利润3.43亿元;芯朋微营收8.77亿元,净利润1.78亿元 [12] - 中金公司数据显示,AI服务器电源市场中,模组和芯片市场的规模预计在2025至2027年间复合年增长率(CAGR)将分别达到110%和67% [13] 第三代半导体与高压直流架构趋势 - 第三代半导体材料碳化硅(SiC)和氮化镓(GaN)凭借高压、高频、低损耗特性,正逐渐渗透AI服务器电源市场 [14] - 预计到2030年,数据中心电源供应单元(PSU)市场规模将攀升至141亿美元,年复合增长率约15.5% [15] - 高于3kW的高功率PSU市场占有率将提升至80%,至2030年达到115亿美元 [15] - 基于SiC、GaN的高功率PSU渗透率将从2025年的10%提升至约24%,对应市场规模约33.84亿美元 [15] - 800V高压直流(HVDC)架构通过“DC-to-Chip”直流直供模式,将电力转换环节从4-5次减少至1-2次,系统端到端效率最高可提升至98.5%,铜材用量能减少45%以上 [16] - 英伟达已提出800VDC供电方案,国内外头部企业如阿里、腾讯、Meta、谷歌等均在推动HVDC技术落地 [16]