LLM:GPU,还是ASIC?
半导体行业观察·2025-04-30 08:44

AI行业指数级增长与市场前景 - 核心观点:AI行业正经历指数级进步,其市场价值巨大且增长迅速,预计将催生市值达万亿美元乃至十万亿美元的公司 [2] - 使用GitHub CoPilot的开发者编码速度提升55% [2] - GPT-4在LSAT考试中得分达88%,远超普通人50%的平均水平 [2][3] - 预计到2025年,OpenAI的大模型收入约1000亿美元,Anthropic的大模型收入在200亿至400亿美元之间 [4] - AI模型能力快速进化,GPT-4智力水平类比聪明高中生,预计到2028年大模型将提供博士级智力,2030年代超越人类智商 [4] - 特定AI模型的成本正以每年4倍(Anthropic)到10倍(OpenAI)的速度下降,预计到2030年,当今模型的运行成本将降至千分之一到十万分之一 [4] - 多家公司有能力和资本参与竞争,包括亚马逊、谷歌、微软等巨头,以及市值约1000亿美元的OpenAI和Anthropic等初创公司 [4] - AI的成功将对半导体、封装、数据中心、冷却和电力领域带来巨大增长压力和产能需求,预计到2030年,半导体收入将主要来自AI/高性能计算 [4] AI加速器市场格局与竞争态势 - 当前数据中心AI加速器市场超过90%份额由NVIDIA GPU占据,其余为AMD GPU和定制ASIC(主要是亚马逊) [5] - NVIDIA提供涵盖GPU、NVlink网络、机架、系统和软件的全套解决方案,年营收高达1600亿美元,拥有3-4个客户每家年采购额近200亿美元 [6] - AMD正积极追赶,其M350 GPU预计在2025年下半年与NVIDIA Blackwell架构匹配,M400将与NVIDIA Rubin架构匹配,目标到2026年实现AI相关年收入100亿美元 [6] - 大型超大规模厂商希望寻找NVIDIA的替代方案以获得定价优势,并在供应受限时更快提升数据中心产能 [6] - 定制ASIC需求升温,亚马逊、谷歌、Meta和OpenAI等均在开发自己的AI加速器 [6] - 博通的AI收入在三年内飙升约10倍,约占总销售额一半;Marvell的AI收入同期也大幅飙升,AI已成为其最大业务部门 [6] - 市场正从以训练为主转向以推理为主,仅用于推理的ASIC可以更简单、成本与功耗更低 [6] - 据Alchip首席执行官表示,ASIC的性价比可比GPU高40%,并可针对客户特定软件优化 [6] AI加速器技术发展与成本分析 - 当前AI加速器通常采用3纳米或2纳米计算引擎,并可能搭配5纳米SRAM和PHY芯片 [6] - AI加速器的非重复性工程(NRE)成本高昂,Alchip提及成本高达5000万美元,而博通/Marvell可能开发更复杂、采用多芯片组和3D封装的加速器,开发成本超过1亿美元 [6] - 超大规模厂商为开发ASIC,需组建庞大的团队,包括超过100人的架构团队、超过100人的网络连接团队以及更多软件开发人员,总开发成本估计在三分之一到五亿美元之间 [6] - 若超大规模厂商每年采购额达200亿美元,通过引入竞争可从NVIDIA获得10%折扣,这为其自主研发ASIC提供了资金基础 [6] - 若能开发出成本仅为NVIDIA GPU一半且功耗更低的ASIC,将被视为巨大成功,Alchip首席执行官预估ASIC价格可能比GPU便宜40%左右 [6] 未来数据中心AI加速器部署组合 - 超大规模数据中心运营商可能采用混合部署策略:使用NVIDIA和AMD的GPU处理最复杂、变化快的工作负载及外部客户;使用自家ASIC处理内部变化较慢的工作负载 [6] - GPU与ASIC的最终组合比例将取决于相对性能、功耗和可用性,可能呈现90% GPU与10% ASIC的组合,也可能如麦肯锡预测的10% GPU与90% ASIC的组合 [6] - 年支出仅10亿美元的小型客户将不得不依赖GPU解决方案 [6]

LLM:GPU,还是ASIC? - Reportify