MTIA v2
搜索文档
理想这次入选的ISCA Industry Track门槛真挺高的
理想TOP2· 2026-03-30 16:31
文章核心观点 - 理想汽车即将发布的M100芯片相关论文入选ISCA Industry Track,这比在ICCV等主流AI顶会发表论文更具含金量,因为ISCA Industry Track录取标准严苛,强调工业界主导和真实量产成果,是衡量芯片研发实力的硬门槛 [1] ISCA Industry Track 会议价值与门槛 - ISCA Industry Track自2020年起设立独立评审委员会,每年仅录取4至6篇论文,要求第一作者必须来自工业界,且研究成果必须是真实量产或准量产成果,门槛极高 [1] - 相比之下,ICCV等主流AI顶会每年录用论文数量达两三千篇,对于理想这类体量的公司,在头部会议Main Track发表多篇论文是“认真做就能做到的事” [1] - 理想M100芯片的论文预计将在2026年4月上传至arXiv,其Camera-Ready版本截止日期为2026年5月9日 [1] 历年ISCA Industry Track入选论文分析 - **IBM**:多次入选,成果涵盖处理器数据压缩加速器、高频分支预测器及AI增强的能效提升,均应用于POWER9、z15、POWER10等企业级处理器,显著降低了存储成本并提升了大型机处理效率 [3][4] - **三星**:入选论文涉及移动SoC CPU微架构演进、稀疏感知可重构NPU架构以及基于商用DRAM的存内计算技术,提升了移动端SoC的单核性能与AI能效,并尝试商业化突破“存储墙” [3][4] - **AMD**:其关于Chiplet技术的论文解析了EPYC和Ryzen处理器家族的设计,这项技术改变了半导体行业,使Chiplet成为高性能芯片设计的主流 [4] - **谷歌**:分享了TPUv4i的关键设计教训,被广泛引用为AI芯片设计指南;TPU v4论文介绍了采用光重构技术的超算系统,奠定了其在大模型时代的算力领先地位 [4][8] - **阿里巴巴**:推出了高性能64位RISC-V处理器玄铁910,是RISC-V生态的里程碑;另有关基于FPGA的云端安全任务卸载系统Fidas,提升了云基础设施的安全性与性能 [3][6] - **Meta**:入选论文数量多且迭代快,涵盖针对推荐系统的自研AI推理芯片MTIA及其第二代MTIA v2、大规模推荐模型训练的软硬件协同设计、Llama 3训练的扩展经验以及数据中心性能基准测试套件DCPerf,展现了其快速进入并深耕自研芯片领域的能力 [6][8][10] - **英伟达**:介绍了其PTX内存一致性模型的混合代理扩展,为GPU编程提供了更精细的内存控制能力 [6] - **DeepSeek**:其论文深入解析了DeepSeek-V3大模型的训练挑战及对AI硬件架构的思考,展现了国产大模型的全球影响力,并为行业提供了稀疏激活架构的深度实践 [10]
突发,Meta放弃一颗自研芯片,拥抱谷歌TPU
36氪· 2026-02-27 09:53
Meta定制芯片战略与研发历程 - 公司进军定制芯片领域是旨在克服现成AI加速器在技术和财务方面局限性的战略 财务上 预计2025年研发投入约500亿美元 资本支出约660亿至720亿美元 收入约1900亿至2000亿美元 资本支出约占总收入的61% 因此基础设施成本降低几个百分点也能对盈利能力产生重大影响[2] - 公司希望采用开源RISC-V架构来构建其未来的计算引擎 跳过可授权但闭源的Arm架构[2] - 公司于2020年开始定制芯片研发 并于2023年5月推出第一代Meta训练和推理加速器 但该芯片仅能进行推理 不能进行训练[3] MTIA芯片技术规格与迭代 - MTIA v1芯片采用台积电7nm工艺 运行频率800 MHz 在INT8精度下提供102.4 TOPS运算能力 在FP16精度下提供51.2 TFLOPS运算能力 热设计功耗为25W[4] - MTIA v2芯片于2024年4月发布 采用5nm工艺 时钟频率提升68.8%至1.35 GHz 芯片面积增大12.9%至421平方毫米 功耗增加2.6倍至90瓦 矩阵运算性能提升近7倍[5] - MTIA v1芯片面积为373平方毫米 MTIA v2芯片面积为421平方毫米[5] - 两款芯片均采用基于RISC-V内核的处理单元阵列 由负责标量运算和向量运算的两个内核组成 MTIA v2部署规模更为庞大[9] 训练芯片研发受阻与外部合作 - 公司放弃了一款内部代号为Iris的第二代训练芯片 之后开始研发更先进的代号为Olympus的训练芯片 但该芯片也已被放弃[1] - 放弃Olympus芯片的原因是高管认为在与OpenAI和Google竞争之际 自研芯片的软件稳定性不如英伟达产品 且复杂设计可能导致难以大规模生产 会给新模型训练带来重大风险[1] - 公司已与谷歌签订一项价值数十亿美元的协议 租用谷歌的AI芯片来开发新的AI模型[1] - 公司近期与英伟达达成了数百万颗GPU的交易 并与AMD达成了6吉瓦的GPU交易[17] 收购Rivos以增强芯片能力 - 2025年10月 公司收购了人工智能芯片初创公司Rivos[12] - Rivos成功流片了3.1 GHz处理器 并构建了兼容CUDA的软件栈 使得为英伟达生态系统开发的AI工作负载能在RISC-V硬件上运行[14] - Rivos的设计为从模型训练到推理等工作负载提供可扩展性和能效 其架构旨在消除计算和内存资源之间的不平衡[15] - 通过收购 公司将获得一支能制造高端定制RISC-V芯片的团队[16] 行业竞争格局与影响 - 公司与谷歌的TPU协议 加剧了谷歌和英伟达在AI芯片领域的竞争[1] - 谷歌已证明其Gemini 3和4模型几乎完全在内部TPU上进行训练 英伟达GPU仅处理该工作负载的0-5% 在搜索和YouTube等推理任务中 TPU处理约85-90%的业务量[18] - 谷歌计划推出TPU即服务模式 作为GPU的替代方案 并与一家大型投资公司签署协议为租赁TPU的合资企业提供资金[19] - 谷歌与公司的合作为其TPU销售业务增添了知名客户 对英伟达在AI芯片市场的主导地位构成威胁[19]
2026年度投资策略:把握AI创新,找寻价值扩张方向
国联民生证券· 2026-01-28 23:40
核心观点 - 报告认为,2026年电子行业投资应把握AI创新主线,核心在于观察云服务提供商及大模型厂商的商业闭环节奏,以把握行业整体β,同时积极寻找价值量扩张、资本开支增量倾斜的细分赛道,投资主线延续“速率+功率” [1][9][10] - 报告提出,算力需求的核心变量在于Token数量与资本开支,其中Token反映实时算力需求,资本开支反映未来算力预期,部分厂商如谷歌已形成“开支→算力→Token→收入→再开支”的正向商业循环 [1][10][15] - 报告建议,在当前市场对AI远期增量有所担忧之际,应重点关注国产算力、半导体设备、存储、AI终端的投资机遇 [2][12] 行业趋势与市场分析 - **资本开支高速增长**:AI投资驱动下,北美五大云厂商资本开支进入加速扩张周期,2025年前三季度合计达3081亿美元,同比增长75% [24][27] - **Token成为核心商业单位**:大模型的主流商业模式均以Token为核心定价单位,实现了“智能”与“算力”的标准化货币兑换,OpenRouter数据显示,在2025年12月22日至29日期间,谷歌的Token使用量市场份额占比达23.1% [15][16] - **主权AI成为重要增量**:全球多国启动主权AI项目以保障技术自主可控,例如美国“星际之门”项目总投资规划达5000亿美元,欧盟“人工智能大陆行动计划”拟投入2000亿欧元,沙特阿拉伯计划打造500兆瓦的超级算力集群 [25][76][80] 海外算力投资主线:“速率+功率” - **速率赛道**:聚焦解决互联瓶颈,包括光通信和PCB的升级 [2][116] - **光通信**:需把握光入柜内趋势,关注光模块业绩、光芯片缺货潮、硅光渗透率提升,以及超节点技术带来的光交换等产业趋势 [2][120] - **PCB**:技术升级是核心焦点,英伟达推出的全新PCB解决方案采用M9等级基材、HVLP4铜箔与石英纤维布构建的正交背板方案成为趋势,将同步拉动材料和设备升级 [2][4][120] - **功率赛道**:应对功耗提升带来的供电及温控挑战 [2][116] - **电源**:单卡和机柜功率密度持续提升,对电力架构提出新要求,高压直流成为未来柜外电源的趋势 [2][5][121] - **液冷**:伴随芯片功率提高,液冷成为数据中心标配,正实现从0到1的产业趋势突破 [2][5][121] 主要云厂商与算力芯片发展 - **谷歌**:在商业闭环上表现领先,其自研TPU显著降低了AI投资成本,3Q25资本开支/经营现金流比率为49%,投入产出效率高,已形成资本开支、Token增长与业绩兑现的正循环 [27][40][69][71] - **微软**:依托Office、Windows等原生应用生态,将AI算力投入转化为生态粘性与用户平均收入提升,形成了“应用生态→算力需求→资本开支→生态强化”的飞轮式正循环 [48] - **亚马逊**:作为全球最大云厂商,正通过自研Trainium系列芯片加速追赶,Trainium3采用3纳米工艺,FP8算力达2.52 PFLOPs,性能较Trainium2提升约4.4倍 [55][56][102] - **Meta**:资本开支专注于内部项目,2025年前三季度增速达112%,在五大厂商中最快,通过开源模型与自研MTIA ASIC芯片,旨在重塑行业推理成本体系 [28][57] - **英伟达产品迭代**:加速卡从H系列向B系列和R系列升级,服务器机柜从8卡向72卡、576卡升级,带动算力密度快速提升,Rubin系列预计于2026年下半年开始出货 [87][89] - **ASIC自研趋势**:云厂商为降低成本并提升灵活性,加速自研AI芯片,预计将成为未来AI芯片增量的核心来源,谷歌TPU v7、亚马逊Trainium3、Meta MTIA v2、微软Maia 100等产品持续迭代 [97][98] 国产算力发展 - **迎来破局元年**:2025年为国产算力破局之年,2026年有望高速成长,行业呈现供需两强的格局 [2] - **需求侧积极**:国产大模型加速追赶,云厂商资本开支展望积极 [2][6] - **供给侧突破**:国产先进制程从单点突破走向多点开花,在晶圆厂、先进封装、算力芯片等领域技术迭代加速,国产替代格局明晰 [2][7] 其他细分赛道机遇 - **半导体存储**:AI驱动存储行业迎来超级周期 [2][8] - **半导体设备**:受益于存储上行周期及原厂扩产 [2][8] - **消费电子与AI终端**:关注AI手机及华米OV、OpenAI、Meta等行业龙头在新型AI终端上的探索 [2][9] 重点公司分析 (工业富联) - **行业地位**:作为AI算力垂直整合领军者,是英伟达GB200的机柜级集成供应商,并与OpenAI达成合作,共同打造AI数据中心机架 [111] - **业绩表现**:深度参与全球AI算力产业链,2025年前三季度营收突破6000亿元人民币,同比增长38%;净利润同比增长48%,其中云计算业务营收同比增长65%,云服务商业务营收同比增速超过150%,GPU AI服务器同比增速超过300% [114]
TrendForce:预计2025年八大CSP的总资本支出达4200亿美元 同比增长61%
智通财经· 2025-10-13 13:45
资本支出趋势 - 全球八大云端服务业者(CSP)合计资本支出预计在2025年突破4200亿美元,约为2023年与2024年资本支出相加的水平,年增幅高达61% [1] - 2026年八大CSP的总资本支出有望再创新高,年增达24%,来到5200亿美元以上 [1] - 支出结构已从能直接创造收益的设备,转向服务器、GPU等资产,意味着巩固中长期竞争力与市占率优先于改善短期获利 [1] AI服务器解决方案需求 - 2025年GB200/GB300 Rack为CSP重点布局的整柜式AI方案,需求量成长将优于预期 [4] - 客户除主要来自北美前四大CSP和甲骨文外,特斯拉/xAI、Coreweave和Nebius等的需求亦有提升 [4] - 2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案 [4] 自研AI芯片发展 - 北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力 [5] - Google与博通合作TPU v7p,预计于2026年逐步放量,TrendForce预估Google TPU出货量将持续领先,2026年更有望实现逾40%的年增长 [5][6] - AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,Trainium v3预计于2026年第一季量产,估计2025年AWS自研ASIC出货量将大幅成长一倍以上,2026年的年增幅度可望逼近20% [6] - Meta加强与博通合作,预计于2025年第四季量产MTIA v2,待2026年采用HBM的MTIA v3推出,整体出货规模将呈双倍以上成长 [6] - Microsoft规划由GUC协助量产Maia v2,预计于2026年上半启动,但Maia v3因设计调整延后量产时程,短期内Microsoft自研芯片出货量相当有限 [6]
研报 | 2026年CSP资本支出预计将高达5,200亿美元,GPU采购与ASIC研发成创新高核心驱动力
TrendForce集邦· 2025-10-13 12:08
全球大型云端服务业者资本支出趋势 - 2025年八大CSP(谷歌、AWS、Meta、微软、甲骨文、腾讯、阿里巴巴、百度)合计资本支出预计突破4200亿美元,约为2023年与2024年资本支出相加的水平,年增幅高达61% [2] - 2026年八大CSP总资本支出有望再创新高,年增达24%,来到5200亿美元以上 [2] - 资本支出结构已从能直接创造收益的设备转向服务器、GPU等资产,意味着巩固中长期竞争力与市占率优先于改善短期获利 [2] AI服务器整柜式解决方案需求 - 2025年GB200/GB300 Rack为CSP重点布局的整柜式AI方案,需求量成长将优于预期 [5] - 客户除主要来自北美前四大CSP和甲骨文外,特斯拉/xAI、Coreweave和Nebius等的需求亦有提升 [5] - 2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案 [5] CSP自研AI芯片发展动态 - 北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力 [6] - 谷歌与博通合作TPU v7p(Ironwood),锁定训练应用,预计于2026年逐步放量,将接替TPU v6e(Trillium)的核心AI加速平台 [6] - 谷歌TPU出货量将持续领先,2026年更有望实现逾40%的年增长 [6] - AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,Trainium v3首款规格预计于2026年第一季量产 [7] - 2025年AWS自研ASIC出货量将大幅成长一倍以上,年度增速为四大业者之最,2026年的年增幅度可望逼近20% [7] - Meta加强与博通合作,预计于2025年第四季量产MTIA v2,提升推理效能与降低延迟 [7] - 2025年MTIA出货主要部署于Meta内部AI平台与推荐系统,待2026年采用HBM的MTIA v3推出,整体出货规模将呈双倍以上成长 [7] - 微软规划由GUC协助量产Maia v2,预计于2026年上半启动,Maia v3因设计调整延后量产时程,短期内微软自研芯片出货量相当有限,进度较落后竞争对手 [7]
AI算力投资风向大转变! 市场真金白银押注ASIC强势崛起
智通财经网· 2025-09-06 15:43
英伟达股价表现及市场压力 - 英伟达股价周五下跌近3% 盘中跌幅一度接近5% 连续四周周线下跌 面临失守4万亿美元市值的风险 [1][8][9] - 较8月高点下跌约10% 市值蒸发近4700亿美元 跌破50日均线 但仍为全球最高市值公司 [9] - 市场抛售压力源于美国非农数据远不及预期触发衰退预警 以及博通AI ASIC市场规模激增 [1] 博通AI ASIC业务强劲增长及竞争影响 - 博通第三财季AI基建相关半导体营收52亿美元 同比增长63% 超出华尔街预期的51.1亿美元 [4] - 预计第四财季AI相关营收达62亿美元 同比增长近70% 高于分析师预期的58.2亿美元 [4] - 获得OpenAI超100亿美元AI基础设施订单 预计2026财年AI相关营收增速将比此前预期更强劲 [5] - 博通周五股价一度飙升16% 市值最高增加近1500亿美元 达约1.6万亿美元 [9] - 博通与谷歌、Meta、微软等科技巨头联合推出AI ASIC 其高性价比和能效比优势对英伟达AI GPU构成直接竞争 [2][11][14] AI ASIC技术路线及市场份额趋势 - AI ASIC在AI训练/推理领域具备明显性价比与能效比优势 单位吞吐成本和能耗显著优于纯GPU方案 [3][15] - 谷歌Ironwood TPU性能提升显著 与TPU v5p相比峰值FLOPS提升10倍 功效比提升5.6倍 [14] - 摩根大通预计Ironwood将在未来6-7个月为博通带来约100亿美元营收 [14] - AI ASIC市场份额有望从当前英伟达占90%的格局转向份额对等 科技巨头倾向采用ASIC与GPU混合架构以最小化TCO [11][15] 台积电行业地位及业绩表现 - 台积电为AI GPU和AI ASIC核心代工厂 占据全球绝大多数5nm及以下先进制程芯片代工订单 [1][17] - Q2净利润激增61% 预计2025年以美元计销售额增长30% 高于此前接近20%中段的预期 [18] - 先进封装产能供不应求 正积极扩建CoWoS产能以支持英伟达等客户需求 预计强劲需求持续至2026年 [18] 寒武纪业绩及股价表现 - 寒武纪2025年上半年营收28.81亿元 同比暴增4347.82% 归母净利润10.38亿元 去年同期亏损5.30亿元 [6] - 今年以来股价涨幅达95% 高盛将12个月目标价从1835元上调至2104元 上调幅度14.7% [5] 全球AI算力投资趋势 - AI算力需求井喷式扩张 美国政府主导的AI基础设施投资项目庞大 科技巨头持续投入大型数据中心建设 [7] - 全球资金押注核心从英伟达AI GPU链转向AI ASIC链 推动MSCI全球指数自4月以来大幅上攻并创历史新高 [7][9]
GB200 出货量更新
傅里叶的猫· 2025-07-08 22:27
AI服务器市场概况 - 2024-2026年全球服务器市场预计以3%年复合增长率增长 2026年规模将达4000亿美元 AI服务器占比从2024年低个位数跃升至2026年高个位数 [1] - 2024年全球服务器出货量同比增长4% 高端GPU服务器2025年预计增长超50% 2026年增幅约20% 2025年全球将部署450万个NVIDIA GPU芯片 [1] - 高端AI服务器平均售价因NVIDIA下一代Rubin芯片引入而上涨 推动市场规模扩大 [1] NVIDIA服务器技术优势 - GB200采用NVLink 5.0互联技术 带宽达1.5TB/s 支持GPU直接通信 搭配HBM3E内存(单芯片192GB)和液冷系统 [2] - GB200单芯片BF16性能达2250 TFLOPS 采用N4制程 HBM3E内存(192GB) NVLink 5.0互联 InfiniBand网络 液冷设计 [10] - GB200机架(NVL72等效)2025Q2出货量大幅增长至7000台 Q3预计达10000台 GB300预计Q4出货数千台 [3] GB200出货数据 - 2025Q1总出货1500台(广达700/鸿海500/纬创300) Q2上调至7200台(广达2800/鸿海2000/纬创2400) [4] - 2025年GB200总出货量预估:NVL72型号27000台 NVL36型号10000台 [4] - 按月份细分:2025年4月1500台 5月2500台 6月3200台 [4] ASIC服务器竞争格局 - CSP厂商(Google/Amazon/Meta/Microsoft)通过ASIC服务器追赶 NVIDIA在性能领先但ASIC在成本定制化占优 [6][7] - Google TPU v5p性能459 TFLOPS 采用N3制程 HBM2E内存(95GB) 自研光网络 [7][10] - Amazon Trainium 2性能650 TFLOPS N5制程 HBM3内存(96GB) 当前风冷计划升级液冷 [7][10] 供应链与市场机会 - Broadcom预测2027财年定制XPU和商用网络芯片市场达600-900亿美元 Marvell预计2023-2028年数据中心市场CAGR为53% [8] - 云厂商ASIC项目进展:Amazon Trainium/Meta MTIA预计2021-2026年逐步落地 市场份额有望提升 [7] - CoWoS基AI加速器出货量稳步攀升 成为市场新增支柱 [8]
芯原股份:国产算力中坚力量,一站式定制化&IP领军-20250611
国盛证券· 2025-06-11 20:48
报告公司投资评级 - 首次覆盖给予公司“买入”评级 [4] 报告的核心观点 - 芯原股份是一站式定制化&IP领军企业,2025 - 2027年营收和归母净利润预计将实现增长,当前PS估值有参考价值,2026年估值有优势,首次覆盖给予“买入”评级 [4] - 云厂商自研ASIC需求井喷,设计服务行业迎历史机遇,芯原与云厂商合作密切、供应链实力强,将充分受益 [2] - 半导体IP国产化需求迫切,芯原国内排名第一,IP积累深厚,有望受益于国产替代 [3] 根据相关目录分别进行总结 一站式定制化&IP龙头企业,潜心研发致力未来 - 芯原依托自主半导体IP,提供一站式芯片定制服务和半导体IP授权服务,2020年上市,2024年推出新一代高性能Vitality架构GPUIP系列 [14] - 一站式芯片定制服务包括芯片设计和量产业务,半导体IP授权服务可单独提供多种IP授权及定制服务,还推出IP平台授权服务 [17][18] - 股权结构多元化,第一大股东持股15.11%,存在股权分散风险,但有战略投资者强化产业协同 [22] - 2025年一季度营收3.9亿元,截至一季度末在手订单24.56亿元创新高,量产业务新签订单超2.8亿元,在手订单超11.6亿元 [26] - 2019年以来毛利率稳定在40% - 45%,但因研发费用上升,2022年以来销售净利率下滑 [28] - 25Q1芯片设计业务收入1.22亿元同比增40.75%,量产业务收入1.46亿元同比增40.33%,半导体IP授权次数下降,相关收入下降 [31] - 2019 - 2024年研发费用持续上涨,2024年研发人员1800人占比89.37%,员工主动离职率远低于行业平均 [32] 云厂商自研ASIC需求井喷,ASIC设计服务迎历史机遇 - 芯片设计服务公司能提升设计效率和流片成功率,一站式芯片定制服务收费分NRE和量产芯片收入 [38] - 芯片设计服务厂商为四类客户提供定制业务,各有分工 [41] - 2028年定制加速计算芯片市场规模有望达429亿美元,AI算力集群需求驱动ASIC成长 [40] - 北美四大CSP加速自研ASIC芯片,博通、Marvell等相关业务有进展,台股部分企业营收增长,国内大厂自研也在加速 [50][54][61] - 云端推理问题促使业界转向端侧部署和边缘AI,比亚迪、吉利推出智驾系统推动智驾普及,消费级AR增长,AI智能眼镜崛起 [65][68] - 2024年芯片设计业务收入增长,25Q1量产业务收入同比增40.33%,订单创新高,非芯片公司客户收入占比约四成 [77] - 公司有多种工艺节点流片经验,实现5nm系统级芯片一次流片成功,针对关键领域和Chiplet技术研发,与三星合作紧密 [78][86] 半导体IP国产化需求迫切,芯原国内排名第一 - IP授权业务分Licensing和Royalty,按交付和产品类型半导体IP有多种分类,国产化需求迫切,海外企业市场份额集中 [93][94][98] - 芯原是业内龙头,业务协同效应强,无完全可比公司,合作伙伴中系统厂商等客户收入占比高 [100][101] 盈利预测 - 预计公司2025 - 2027年分别实现营业收入31.8/40.6/58.8亿元,同比增长36.9%/27.6%/45.0%,实现归母净利润0.1/0.6/1.4亿元,同比增长101.8%/505.1%/125.3% [4]
IP 设计服务展望:2026 年 ASIC 市场动态
2025-05-22 13:50
纪要涉及的行业和公司 - **行业**:IP/设计服务、ASIC市场 - **公司**:AWS、Google、META、Microsoft、Alchip、eMemory、GUC、Faraday、M31、Andes、Broadcom、Marvell、Apple、OpenAI、xAI、Intel、Bytedance、Li - auto、Furiosa、Qualcomm、MediaTek 纪要提到的核心观点和论据 各公司ASIC进展 - **AWS**:Trainium 3问题解决,继续与下游供应商接单,预计签署Trainium 4合同,实际项目已启动 [2] - **Google**:从TPU v6到v8进展稳定,规格高于其他CSP的ASIC,TPU v6p和v7p配置不同且ASP可能提升,未来难不与Broadcom合作 [2] - **META**:从MTIA v2向MTIA v3代际迁移,2026年MTIA v2产量10 - 20万片,MTIA v3产量20 - 30万片 [2] - **Microsoft**:Maia v2计划2026年量产50万片,原分配计划改变,Marvell获40万片;Maia v3供应商选择竞争激烈,预计年底出结果,MSFT/GUC团队分配量可能较少 [3][4] - **非CSP公司**:Apple、OpenAI、xAI等系统厂商构建自己的ASIC服务器,多在2H25流片,2H26量产,选择与Broadcom合作的规格高端,2027年非CSP服务器增多,利好Broadcom [7] - **Apple**:加速器预计4Q26量产,2026年出货10万片 [8] - **OpenAI**:3nm ASIC预计9月流片,2026年6月量产,2026年产量30 - 40万片,生命周期1 - 1.5年 [9] - **xAI**:3nm ASIC项目预计2H25流片,2H26量产,2026年产量30 - 40万片 [9] 公司业绩与业务情况 - **GUC**:FY25因Google CPU和加密项目收入可能超预期,Google 3nm服务器CPU收入提前至3Q25,预计成前5大客户;FY26即使无加密收入,代工收入仍有增长,CEO认为Google CPU和第三CSP客户潜在收入高于Maia v2 [10][11] - **M31**:今年重点是前季度签署合同的第二次付款;与Qualcomm合作紧密,Qualcomm 2H25启动2nm智能手机SoC项目,1Q26启动2nm AI PC处理器项目,MediaTek 2nm智能手机SoC项目未启动 [12][13] - **Faraday**:1Q25收入增长源于中国客户购买三星HBM2E的预付款,若客户被列入实体清单,剩余价值小且客户自行处理库存核销 [14] 其他重要但可能被忽略的内容 - 展示了多家公司的股票信息,包括市值、评级、价格、目标价、EPS、PE、PB、ROE、股息率等 [6] - 给出了CSPs的ASIC订单分配给设计服务提供商的情况 [15] - 呈现了ASIC的规格信息 [15] - 展示了ASIC MP的时间线 [17] - 给出了2026年各公司ASIC的芯片数量、晶圆发货量和收入贡献估算 [18]
研报 | AI芯片自主化进程加速,云端巨头竞相自研ASIC
TrendForce集邦· 2025-05-15 15:15
AI服务器芯片市场趋势 - 北美四大CSP加速自研ASIC芯片以应对AI工作负载扩大和降低对NVIDIA、AMD的依赖,平均1~2年推出升级版本 [1] - 中国AI服务器市场外购NVIDIA、AMD芯片比例预计从2024年63%降至2025年42%,本土芯片供应商(如华为)占比将提升至40% [1] - CSP自研ASIC旨在控制成本、优化性能并增强供应链弹性,改善营运成本支出 [1] 美系四大CSP的AI ASIC进展 - Google推出TPU v6 Trillium,主打能效比和AI大型模型优化,2025年将大幅取代TPU v5,新增联发科合作形成双供应链布局 [2] - AWS以Trainium v2为主力,支持生成式AI与大型语言模型训练,2025年ASIC出货量预计大幅增长,年增表现最强 [2] - Meta与Broadcom合作开发MTIA v2,聚焦能效最佳化与低延迟架构以满足AI推理需求 [3] - Microsoft加速ASIC开发,Maia系列芯片针对Azure生成式AI应用优化,下一代Maia v2已定案并与Marvell合作开发进阶版 [3] 中国AI供应链自主化进展 - 华为昇腾芯片系列面向内需市场,应用涵盖LLM训练、智慧城市及电信云网AI,长期可能撼动NVIDIA在中国市场的地位 [4] - 寒武纪思元(MLU)AI芯片系列瞄准云端AI训练与推理,2025年将逐步推进至云端AI市场 [4] - 阿里巴巴平头哥推出Hanguang 800 AI推理芯片,百度开发Kunlun III支持高效能训练与推理,腾讯采用自研Zixiao及燧原科技解决方案 [5] 行业生态体系发展 - 国际形势与供应链重构推动中国芯片供应商及CSP加速自研ASIC,带动AI服务器市场向多生态体系发展 [5]