智能时代能源革命
搜索文档
高通开始造电厂
36氪· 2025-10-28 12:06
高通进军AI数据中心芯片的战略动机 - 公司宣布推出AI数据中心芯片AI200和AI250,直接对标英伟达[1] - 公司核心竞争力在于能效,其基因是“在有限电力里榨出极限性能”,计划将手机芯片的能效逻辑应用于数据中心,解决AI时代的电力有限问题[2][4] - 公司面临手机市场红利见顶的焦虑,2023年手机芯片营收下降超过20%,急需寻找第二条增长曲线[5][6] 英伟达的市场主导地位与商业模式 - 英伟达在AI加速器/数据中心GPU市场份额长期保持在90%以上,2025年第一季度插件显卡市场份额约为92%,第二季度升至94%[12] - 公司数据中心业务毛利率高达78%,其GPU像一种“通行权”,通过控制交付周期和定价来维持稀缺性和市场信仰[13][14] - 英伟达通过构建包括CUDA、DGX系统和企业平台服务在内的生态系统,使其成为AI领域的基础设施[25] AI算力行业的现状与挑战 - AI行业严重依赖算力,但GPU价格高昂,一张英伟达H100市场价三万美元起,整柜NVL72系统动辄一百万美元以上[2] - 2024年全球数据中心耗电量突破460太瓦时,其中约20%用于AI训练与推理,相当于阿根廷一年的用电量,算力已成为电力的下游产业[2] - 行业存在对电力天花板和算力成本的普遍焦虑,推动了对更高效、更便宜计算方案的需求[2][3] 行业结构演变与竞争格局 - 云巨头正推进“去英伟达化”,谷歌推出第七代自研AI芯片,亚马逊推出自研Trainium2,微软自造Maia 100芯片,Meta测试MTIA芯片[26][27] - 技术垄断会自然引发修正,历史案例包括Intel与ARM、微软与Google/苹果,高通作为新玩家进入是对英伟达高利润率和长交货周期的市场反应[16][17] - AI竞赛进入生态层比拼,谷歌将Gemini集成进Gmail、Docs等服务,OpenAI的ChatGPT Enterprise已有300万家企业用户,微软将Copilot植入Office套件,竞争焦点在于用户黏性和控制力[27][28] 算力发展的新趋势与方向 - 模型轻量化成为重要方向,实验表明删除大模型冗余部分可使能耗降低90%[20] - AI推理呈现去中心化趋势,从数据中心向手机、笔记本、汽车等终端设备迁移[21] - 芯片低功耗化是另一趋势,高通AI芯片以提升“每瓦推理产出”为目标,推动产业从性能竞争转向能效竞争[22][23] 地缘战略与市场验证 - 沙特主权基金PIF投资的项目HumAiN成为高通AI芯片的首个客户,订单规模达200兆瓦,相当于一座中等城市一年的数据中心电力消耗,可支持约五万张英伟达H100 GPU[6][7] - 沙特从“出口能源”转向“进口智能”,标志着能源定义的改变,智能时代的能源革命可能出现从硅谷向中东的转向[8][9]