全球AI芯片市场范式转移 - 当前全球AI芯片市场正经历深刻范式转移,从长期由GPU主导的AI训练转向围绕ASIC的产业变革,自2025年起剧烈发酵[2] - AI算力重心正发生历史性迁移,从训练军备竞赛转向推理规模化落地[4] ASIC产业拐点信号与数据 - 2026年Q1,谷歌TPU在其AI服务器出货占比飙升至78%,远超GPU份额[4] - OpenAI宣布将在2026下半年至2027年部署博通定制ASIC构建10吉瓦算力集群,单算力成本降低约35%[4] - 德勤数据显示,AI推理负载占比从2023年的1/3飙升至2026年的2/3,长期将进一步突破,其市场规模是训练硬件的2-3倍[5] - 高盛预测,2026年ASIC占AI芯片比例升至40%,2027年突破45%,几乎与GPU平分秋色[5] - Counterpoint Research指出,AI ASIC市场规模将从2024年120亿美元增至2027年300亿美元,年复合增长率高达34%[5] - 2026年AI加速器市场处于关键转折点,竞争已从单芯片算力比拼蔓延至互连、交换机、软件生态与系统架构的全方位对抗[5] ASIC崛起的驱动因素 - AI大模型优化大幅降低推理成本,AI编程与AI Agent广泛进入工业生产环节,推动AI推理在2025年下半年彻底爆发[7] - 当模型部署规模推向亿级用户时,使用昂贵的通用GPU进行高并发即时推理存在结构性不划算的问题,为ASIC创造了机会[7] - 随着AI算力需求从训练主导向推理主导迁移,定制化芯片的能效比和成本优势成为核心驱动力[7] - 在推理场景中,ASIC芯片延迟更低、能耗更省、单位成本更优,足以动摇GPU建立的成本模型[7] - AI Agent爆发导致Token消耗暴涨10-100倍,加剧了通用GPU在推理场景的功耗与成本瓶颈[7] - ASIC通过定制化架构,将晶体管资源全部投入特定计算,剔除冗余功能,可实现3-5倍能效比提升,TCO降低40-60%[7] - 例如,OpenAI联合博通推出的定制推理芯片能效比达6.8TOPS/W,而英伟达GB200对应指标为4.5 TOPS/W[8] - Transformer架构长期主导大模型世界,使得ASIC的专用性设计不再受困于“应用面过窄”的经典魔咒,专用架构能在广阔市场中兑现成本与能效优势[9] - 当ASIC面对几百亿美元级别的可服务市场且工作负载结构高度统一时,便从GPU的低成本替代方案升级为AI基础设施进化的必然选项[9] - 谷歌、AWS、微软、Meta等几大云服务商作为全球最大算力采购群体,正集体向自研或定制ASIC倾斜[9] - TrendForce预估,2026年CSP和主权云的AI服务器需求将持续强劲,ASIC服务器出货增速44.6%将显著超越GPU服务器的16.1%[9] - 掌握芯片定义权意味着掌握算力定价权和供应链自主权,用真金白银为ASIC投票已成为云厂商从被动采购走向主动定义的战略必选动作[10] 全球ASIC竞争格局重构 - 过去ASIC叙事主要围绕博通与Marvell两家老牌玩家,如今联发科、高通等手机芯片巨头正在跨界进击改写竞争格局[12] 联发科 - 在手机市场触及增长天花板、2025年毛利率降至四年来低点47.5%的背景下,联发科CEO蔡力行将数据中心ASIC锁定为公司最具想象空间的成长引擎[13] - 联发科成功拿下Google数据中心ASIC订单[13] - 2026年数据中心ASIC营收绝对突破10亿美元,2027年上看数十亿美元[13] - 蔡力行判断,2028年全球数据中心ASIC市场有望达到700亿美元规模,联发科目标不仅是此前预估的10%至15%市场份额,会争取更高[13] - 高盛预测,2027年联发科AI ASIC营收最高可达123亿美元,对应10-15%市场份额;2028年AI业务占比将超六成(66%),AI ASIC营收规模有望达480亿美元[14] - Counterpoint Research预计,2028年联发科将拿下26%的AI ASIC市场份额,出货量从2026年到2028年增长10倍,成为全球第二大供应商,仅次于博通[14] 高通 - 2025年,高通以24亿美元全资收购高速有线连接技术企业AlphaWave Semi,并于2026年Q1完成交割,旨在补齐高性能数据中心互联和定制芯片设计能力[15] - 2026年4月30日,高通CEO安蒙确认公司正与一家领先的超大规模云服务商合作开发定制芯片,首批出货定于12月季度启动,聚焦AI推理场景优化[15] - 高通采取“三路并进”策略:同步研发通用CPU、专为AI推理打造的加速器和全定制ASIC芯片,构成完整的数据中心解决方案矩阵[15] - 2025年10月高通发布面向数据中心推理的AI200/AI250,AI200预计2026年商用,AI250计划2027年推出[15] - 高通的差异化优势在于端云协同生态整合,其ASIC能高效运行云端推理任务,还能与骁龙移动平台、物联网芯片实现无缝衔接,提供从终端到云端全栈AI解决方案[16] 博通 - 博通是ASIC领域公认的霸主[17] - 得益于客制化芯片、AI网通产品业务成长,博通2025年营收上升至397亿美元,年增30%[17] - 2026财年Q1,博通AI相关收入达84亿美元,同比增长106%,占其半导体收入比重持续攀升[17] - 博通CEO陈福阳预测,到2027年仅AI芯片(定制化ASIC)的营收就将超过1000亿美元,总出货量接近10吉瓦[17] - 博通正与六家主要客户紧密合作开发AI专用处理器,包括谷歌、Meta、Anthropic、OpenAI等,合作周期长达2-4年滚动规划[17] - 谷歌是TPU芯片重要合作伙伴,订单规模持续扩大;Meta的MTIA系列芯片路线图进展顺利,2027年交付量将达数吉瓦;Anthropic计划于2027年部署超过3吉瓦的TPU算力;OpenAI宣布从2027年开始部署首代XPU,首年计算能力超过1吉瓦[17] Marvell - 2019年,Marvell完成对GlobalFoundries旗下ASIC业务Avera的收购,为定制芯片业务奠定基础[18] - 2026年3月31日,英伟达宣布向Marvell投资20亿美元,双方通过NVLink Fusion技术建立战略合作伙伴关系,Marvell将提供定制XPU和NVLink Fusion兼容网络方案[18] - 2025年12月2日,Marvell宣布以约32.5亿美元收购光互连技术公司Celestial AI,交易于2026年Q1完成,其Photonic Fabric技术能效是铜互连的2倍[19] - 2026财年Marvell总营收为81.95亿美元,同比增长42%;其中数据中心收入达61亿美元,占总收入约74%,而在2024财年时占比还只有约40%[19] - Marvell最大的ASIC客户是亚马逊AWS;谷歌、微软、Meta均是确认合作伙伴;Marvell声称已在超过20家客户处拿下AI ASIC设计订单[20] - Marvell CEO Matt Murphy表示,目标是将AI相关业务收入占比提升至50%以上,成为AI基础设施领域关键参与者[20] - 与博通提供深度绑定的端到端方案不同,Marvell提供更灵活的按需组合方案,更适合希望掌控自身架构的客户[20] 中国ASIC力量崛起 - 以芯原股份、翱捷科技为代表的独立IC设计服务商正在成为不可忽视的新一极[23] 芯原股份 - 2025年全年新签订单金额达59.60亿元,同比翻倍增长103.41%[24] - 其中AI算力相关订单占比超73%,数据处理领域订单占比超50%,主要来自云侧AI ASIC及IP[24] - 截至2025年末在手订单达50.75亿元,已连续九个季度保持高位,预计一年内转化为营收比例超80%[25] - 2026年1-4月新签订单82.40亿元,AI算力相关订单占比91.37%,更在短短9天内新增37.24亿元AI ASIC订单[25] - 2026年Q1营收8.36亿元,同比增长114.47%,一站式芯片定制业务同比增长145.90%[25] - 芯原提供从IP授权到芯片设计、量产业务的一站式解决方案,聚焦云侧AI ASIC,客户涵盖全球头部云厂商[25] - 芯原CEO戴伟民表示,2026年AI相关订单占比超90%,标志着公司成功转型为AI算力基础设施服务商[26] 翱捷科技 - 自2024年下半年起,智能穿戴、端侧AI及RISC-V芯片等方向定制需求持续攀升,ASR承接多个采用先进工艺制程的定制项目[27] - 2025年,ASR营收增长12.73%至38.17亿元,亏损大幅收窄超3亿元[27] - 2026年Q1,ASR的ASIC定制业务收入1.88亿元,同比增长73%,占总营收比例提升至23%[27] - ASR成立ASIC业务全资子公司,将20%研发资源向定制业务倾斜,覆盖AI云侧、端侧、可穿戴及RISC-V等领域[27] - ASR的差异化优势在于系统级ASIC解决方案能力,凭借基带SoC芯片领域多年技术积累,能提供从芯片设计到系统优化的全流程服务[27] AI产业链底层重构 - 谷歌正在与Meta洽谈向其直接销售自研TPU芯片,这笔数十亿美元规模的交易若落地,标志TPU从谷歌内部走向商业化外销[30] - Meta计划2026年从谷歌云租用TPU算力,2027年斥资直接采购硬件部署于自有数据中心[30] - 云厂商正在构建“自研+外采”的开放算力供应链,以打破依赖单一供应商的路径锁定[31] - 博通、Marvell、联发科等代表的成熟ASIC设计服务生态已形成高度专业化分工闭环:CSP定规格、芯片商做设计、台积电负责先进封装[31] - 全球AI芯片市场正从英伟达一家独大走向百家争鸣[31] - AI驱动下的ASIC井喷对计算架构提出更高要求,台积电CoWoS先进封装月产能预计将从2025年底约6.5至7万片大幅扩充至2026年底12至13万片,仍无法完全满足客户需求[31] - 博通推出了业界首个3.5D XDSiP面对面计算SoC平台,支持在紧凑形态下实现计算、存储和I/O独立扩展,以支持千兆瓦级AI算力集群需求[31] - AI基础设施竞争焦点已从“拼单点算力”彻底转向比拼系统架构效率[32] ASIC面临的挑战 - 开发成本与流片风险是悬在每一个ASIC玩家头顶的达摩克利斯之剑,一枚先进制程AI ASIC芯片从设计到流片动辄耗资数亿美元[34] - 定制ASIC业务的前期重投入特性对整体毛利率形成一定结构性拖拽[34] - 软件生态是ASIC面对的最顽固壁垒,英伟达CUDA构建的庞大软件栈包括数百万开发者、无数库与框架、经年累月优化的算子生态[34] - 全球AI芯片订单对台积电CoWoS先进封装的集中依赖带来排产拥挤度风险,叠加地缘政治与供应链不确定性的影响[35] - 深层考验在于全定制与可编程灵活性之间的经典博弈,需平衡专用极致效率与通用弹性适配[35] 未来展望 - 终局并非ASIC完全取代GPU,而是两者在共存新格局中找到各自不可替代的生态位[36] - AI加速器市场竞争格局正走向“训练靠GPU、推理靠ASIC”的特化分工,或在更大规模AI集群中实现ASIC与GPU混合组网[36] - ASIC的黄金时代本质是一场关于AI算力“民主化”的运动,让算力定义权从单极集中的芯片巨头开始回归到云厂商、设备商乃至终端用户手中[37]
这条芯片赛道,彻底火了