报告行业投资评级 报告未提及行业投资评级相关内容 报告的核心观点 - 尽管英伟达在AI计算集群中占据主导地位,但随着超大规模企业内部特定领域需求的成熟,云ASIC仍有增长空间,预计2026年定制AI加速器在台积电AI逻辑半导体营收中的占比将超过商用GPU [4][6] - Meta的ASIC AI(MTIA)服务器计划在2026 - 2027年有重大进展,但面临实现百万级出货量的挑战,投资可关注英伟达、AWS Trainium、Meta MTIA和Google TPU等项目的潜在受益公司 [8][10][12] 根据相关目录分别进行总结 AI服务器市场格局 - 英伟达在AI服务器市场价值份额超80%,ASIC AI服务器价值份额约8 - 11%;若仅比较数量,2025年谷歌TPU预计150 - 200万台、AWS Trainium 2 ASIC预计140 - 150万台,英伟达AI GPU供应500 - 600万台以上,谷歌和AWS的AI TPU/ASICs总量达英伟达AI GPU的40 - 60%,预计2026年AI ASIC总量将超英伟达AI GPU [1] - 英伟达在COMPUTEX 2025上推出NVLink Fusion,开放专有互连协议,避免在云计算市场份额流失,其最终被云客户的采用和反馈值得关注 [2] AI ASIC与英伟达产品对比 - 为弥补技术性能不足,初始ASIC解决方案使用更好材料、组件和低效架构确保系统稳定和性能,虽BOM成本高,但对云服务提供商更具成本效益 [3] - 英伟达在单位芯片面积计算能力和逻辑密度上领先,其AI集群扩展互连技术NVLink优势明显,预计2026 - 2027年行业开放规范的UALink性能难赶上 [5] - 此前AWS Trainium和微软Maia 100等ASIC规格低于英伟达AI GPU,但目前AI ASIC规格在追赶,不过英伟达在扩展连接性、专有CUDA生态系统仍有优势,部分ASIC解决方案试图利用英伟达系统架构 [7] Meta的ASIC AI(MTIA)服务器计划 - Meta计划在2025年底推出首款有一定规模的ASIC,2025年末至2027年有多款不同系统架构的MTIA芯片推出 [8] - 2025年四季度推出的MTIA T - V1由博通设计,采用Meta通用服务器刀片架构,天弘负责计算托盘和CDU,天弘和新美亚分别负责机架和交换机,计算主板PCB设计复杂 [9] - 2026年年中推出的MTIA T - V1.5性能更强,插片尺寸可能翻倍超5倍光罩,系统架构类似Meta的GB200,天弘主导该项目,计算主板PCB层数可达40L,采用混合M8 CCLs [9] - 2027年推出的MTIA T - V2插片尺寸可能更大,机架系统功率更高,可能需液 - 液冷却 [9] Meta的MTIA出货量目标与挑战 - 博通预计至少三家超大规模客户到2027年底各部署100万个xPU集群,下游供应链认为Meta目标是2025年末至2026年MTIA V1和V1.5达100 - 150万个,但目前预计2026年最多分配30 - 40K CoWoS晶圆用于MTIA,要实现目标需更多预订 [10] - MTIA面临挑战,如V1.5插片尺寸大可能带来封装和基板问题,系统爬坡可能需更多时间,大规模出货可能导致下游材料和组件短缺 [11] 投资建议 - 建议投资有多元化客户的潜在受益公司,如Quanta、Unimicron、EMC、WUS和Bizlink等 [12] - Quanta是Meta MTIA V1和V1.5的计算托盘和CDU制造商,也是V1.5整个机架组装的主导者,其在英伟达和ASIC解决方案中的多元化地位有助于公司估值提升 [13] - Unimicron是博通、Marvell和英伟达的关键基板合作伙伴,预计将成为Meta、谷歌和AWS的ASIC主要基板制造商之一,在英伟达Blackwell AI GPU中份额有望达30 - 40% [14] - EMC是AWS和Meta ASIC的主要CCL供应商,AI ASIC需求增长对其有利,因其在AI ASIC中有更高的美元含量和市场份额 [15] - WUS可能是Meta ASIC的主要PCB供应商,Meta PCB的高层数规格是其优势 [16] - 预计基板管理控制器(BMCs)将从Meta ASIC AI服务器发展中受益,MTIA服务器机架预计有23个BMC,其中16个在MTIA刀片中,还有16个迷你BMC [17][18] - Bizlink是Meta自有ASIC AI服务器扩展连接的主要受益者,其AEC产品用于多个云服务提供商的ASIC AI服务器,在Meta机架设计中有潜在应用 [19]
野村:Meta 在 ASIC 服务器方面雄心勃勃,其 MTIA AI 服务器有望在 2026 年成为一个里程碑