Workflow
TPU v6
icon
搜索文档
研报 | 受国际形势变化影响,2025年AI服务器出货年增幅度略减
TrendForce集邦· 2025-07-02 14:03
AI服务器市场需求 - 北美大型CSP是AI服务器市场需求扩张主力,tier-2数据中心和中东、欧洲主权云项目助力需求稳健 [1] - 2025年AI服务器出货量预计维持双位数增长,但2024年全球出货量增速微幅下修至24.3% [1] - 2025年整体服务器(含通用型和AI服务器)出货量预计年增5%,与先前评估一致 [4] 北美五大CSP动态 Microsoft - 2024年投资重点仍为AI领域,通用型服务器采购量受抑制 [1] - AI服务器主要采用NVIDIA GPU方案,自研ASIC Maia预计2026年新方案才明显放量 [1] Meta - 新数据中心落成推动通用型服务器需求显著增加,多数采用AMD平台 [1] - 积极布局AI服务器基础设施,自研MTIA芯片2026年出货量有望翻倍增长 [1] Google - 主权云项目和东南亚新数据中心推动服务器需求提升 [2] - 自研芯片布局比例较高,AI推理用TPU v6e已于2024年上半年逐步放量成为主流 [2] AWS - 自研芯片以Trainium v2为主力平台,已启动Trainium v3开发,预计2026年量产 [2] - 2025年自研ASIC出货量预计实现双倍增长,为美系CSP中最强 [2] Oracle - 侧重采购AI服务器和IMDB服务器,2024年更积极布局AI服务器基础设施 [3] - 整合云端数据库及AI应用,对美国主权云项目中NVIDIA GB Rack NVL72需求明显提升 [3] 行业技术趋势 - 北美CSP普遍加速自研ASIC布局,Google TPU v6e、AWS Trainium v2/v3、Meta MTIA等方案成为重点 [1][2] - 国际形势变化促使Server Enterprise OEM重新评估2025年下半年市场规划 [4]
这种大芯片,大有可为
半导体行业观察· 2025-07-02 09:50
核心观点 - 人工智能模型规模呈指数级增长,传统单芯片GPU架构在可扩展性、能源效率和计算吞吐量方面面临显著局限性 [1] - 晶圆级计算成为变革性范式,通过将多个小芯片集成到单片晶圆上提供前所未有的性能和效率 [1] - Cerebras WSE-3和特斯拉Dojo等晶圆级AI加速器展现出满足大规模AI工作负载需求的潜力 [1] - 台积电CoWoS等新兴封装技术有望将计算密度提高多达40倍 [1] AI硬件发展历程 - Cerebras里程碑包括2019年WSE-1、2021年WSE-2和2024年WSE-3的发布 [3] - NVIDIA产品线从1999年GeForce 256演进至2024年Blackwell B100/B200 GPU [3] - Google TPU系列从2015年初代发展到2024年TPU v6e [5] - 特斯拉于2021年宣布进入AI硬件领域推出Dojo系统 [5] 晶圆级计算优势 - 提供卓越带宽密度,特斯拉Dojo系统每个芯片边缘实现2TB/s带宽 [10] - 实现超低芯片间延迟,Dojo仅100纳秒,远低于NVIDIA H100的12毫秒 [10] - 物理集成度高,Dojo单个训练芯片集成25个芯片,传统方案需10倍面积 [11] - 台积电预计2027年CoWoS技术将提供比现有系统高40倍计算能力 [12] 主要AI训练芯片对比 - Cerebras WSE-3:46,225平方毫米面积,4万亿晶体管,90万个核心,21PB/s内存带宽 [15] - 特斯拉Dojo D1芯片:645平方毫米面积,1.25万亿晶体管,8,850个核心,2TB/s内存带宽 [16] - Graphcore IPU-GC200:800平方毫米面积,236亿晶体管,1,472个核心,47.5TB/s内存带宽 [17] - Google TPU v6e:700平方毫米面积,3.2TB/s内存带宽 [17] 性能比较 - WSE-3在FP16精度下峰值性能达125PFLOPS,支持24万亿参数模型训练 [25] - NVIDIA H100在FP64精度下提供60TFLOPS计算能力 [27] - WSE-3训练700亿参数Llama 2模型比Meta现有集群快30倍 [29] - WSE-3运行80亿参数模型时token生成速度达1,800/s,H100仅为242/s [29] 能效比较 - WSE-3功耗23kW,相同性能下比GPU集群能效更高 [75] - NVIDIA H100能效为7.9TFLOPS/W,A100为0.78TFLOPS/W [74] - WSE-3消除芯片间通信能耗,传统GPU互连功耗显著 [76] - 数据中心冷却系统占总能耗40%,液冷技术成为关键 [83] 制造工艺 - WSE-3采用台积电5nm工艺,4万亿晶体管集成在12英寸晶圆上 [66] - Dojo采用台积电7nm工艺,模块化设计包含25个D1芯片 [68] - WSE-3使用铜-铜混合键合技术,Dojo采用InFO封装技术 [71] - 两种架构均需应对良率挑战,采用冗余设计和容错机制 [67][70] 应用场景 - WSE-3适合大规模LLM、NLP和视觉模型训练 [54] - NVIDIA H100更适合通用AI训练和HPC应用 [54] - Dojo专为自动驾驶和计算机视觉工作负载优化 [57] - GPU集群在数据中心可扩展性方面表现更优 [54]
芯原股份:国产算力中坚力量,一站式定制化&IP领军-20250611
国盛证券· 2025-06-11 20:48
报告公司投资评级 - 首次覆盖给予公司“买入”评级 [4] 报告的核心观点 - 芯原股份是一站式定制化&IP领军企业,2025 - 2027年营收和归母净利润预计将实现增长,当前PS估值有参考价值,2026年估值有优势,首次覆盖给予“买入”评级 [4] - 云厂商自研ASIC需求井喷,设计服务行业迎历史机遇,芯原与云厂商合作密切、供应链实力强,将充分受益 [2] - 半导体IP国产化需求迫切,芯原国内排名第一,IP积累深厚,有望受益于国产替代 [3] 根据相关目录分别进行总结 一站式定制化&IP龙头企业,潜心研发致力未来 - 芯原依托自主半导体IP,提供一站式芯片定制服务和半导体IP授权服务,2020年上市,2024年推出新一代高性能Vitality架构GPUIP系列 [14] - 一站式芯片定制服务包括芯片设计和量产业务,半导体IP授权服务可单独提供多种IP授权及定制服务,还推出IP平台授权服务 [17][18] - 股权结构多元化,第一大股东持股15.11%,存在股权分散风险,但有战略投资者强化产业协同 [22] - 2025年一季度营收3.9亿元,截至一季度末在手订单24.56亿元创新高,量产业务新签订单超2.8亿元,在手订单超11.6亿元 [26] - 2019年以来毛利率稳定在40% - 45%,但因研发费用上升,2022年以来销售净利率下滑 [28] - 25Q1芯片设计业务收入1.22亿元同比增40.75%,量产业务收入1.46亿元同比增40.33%,半导体IP授权次数下降,相关收入下降 [31] - 2019 - 2024年研发费用持续上涨,2024年研发人员1800人占比89.37%,员工主动离职率远低于行业平均 [32] 云厂商自研ASIC需求井喷,ASIC设计服务迎历史机遇 - 芯片设计服务公司能提升设计效率和流片成功率,一站式芯片定制服务收费分NRE和量产芯片收入 [38] - 芯片设计服务厂商为四类客户提供定制业务,各有分工 [41] - 2028年定制加速计算芯片市场规模有望达429亿美元,AI算力集群需求驱动ASIC成长 [40] - 北美四大CSP加速自研ASIC芯片,博通、Marvell等相关业务有进展,台股部分企业营收增长,国内大厂自研也在加速 [50][54][61] - 云端推理问题促使业界转向端侧部署和边缘AI,比亚迪、吉利推出智驾系统推动智驾普及,消费级AR增长,AI智能眼镜崛起 [65][68] - 2024年芯片设计业务收入增长,25Q1量产业务收入同比增40.33%,订单创新高,非芯片公司客户收入占比约四成 [77] - 公司有多种工艺节点流片经验,实现5nm系统级芯片一次流片成功,针对关键领域和Chiplet技术研发,与三星合作紧密 [78][86] 半导体IP国产化需求迫切,芯原国内排名第一 - IP授权业务分Licensing和Royalty,按交付和产品类型半导体IP有多种分类,国产化需求迫切,海外企业市场份额集中 [93][94][98] - 芯原是业内龙头,业务协同效应强,无完全可比公司,合作伙伴中系统厂商等客户收入占比高 [100][101] 盈利预测 - 预计公司2025 - 2027年分别实现营业收入31.8/40.6/58.8亿元,同比增长36.9%/27.6%/45.0%,实现归母净利润0.1/0.6/1.4亿元,同比增长101.8%/505.1%/125.3% [4]
电子行业周观点:ASIC需求全面爆发,重视自研芯片产业机遇
国盛证券· 2025-06-08 21:30
报告行业投资评级 - 行业投资评级为增持(维持) [5] 报告的核心观点 - ASIC需求全面爆发,应重视CSP自研芯片产业机遇,特别是亚马逊定制芯片与谷歌TPU产业链的投资机会,具备相关优势的ASIC定制服务厂商有望受益 [1][7] - 模拟芯片下游需求回暖,国产化需求迫切,国产替代空间大 [8] 根据相关目录分别进行总结 ASIC需求全面爆发,重视CSP自研芯片产业机遇 - 北美CSP加速自研ASIC布局,谷歌和亚马逊进展领先,2023年定制加速计算芯片市场规模为66亿美元,占加速芯片的16%,预计2028年达429亿美元,占25%,2023 - 2028年CAGR为45% [1][14] - 博通25Q2 AI半导体收入超44亿美元,同比增长46%,预计2026年下半年XPU需求加速,2027年至少3家客户各部署100万AI加速器集群 [2][21] - Marvell FY26Q1收入创纪录,2026年将启动3nm芯片生产,与另一家美国超大规模客户合作进展顺利,还与NVIDIA建立合作提升定制化能力 [3][23][25] - 纬创2025年5月营收2084亿新台币,同环比高速增长,ASIC需求全面爆发,中系CSP也在加速自研AI ASIC [4][30][36] 模拟芯片下游需求回暖,国产化需求迫在眉睫 - 预计2025年全球模拟芯片市场规模为843亿美元,2024年中国汽车模拟芯片国产化率仅5%左右,国产替代空间大 [8][40] - TI、ADI、Microchip均指引下游复苏趋势,各终端市场有不同程度的增长或变化 [8][47] 相关标的 - 谷歌产业链:胜宏技技、天弘技技、lumentum、FINISAR [50] - 海外AI:胜宏技技、工业富联、沪电股份、麦格米特 [51] - 国产算力底座:中芯国际、华虹半导体 [52] - 芯片:寒武纪、海光信息等;配套:深南电路、兴森技技等;封测:长电技技、通富微电等;模拟芯片:纳芯微、圣邦股份等 [53][54]
周观点:ASIC需求全面爆发,重视自研芯片产业机遇-20250608
国盛证券· 2025-06-08 18:58
证券研究报告 | 行业周报 gszqdatemark 2025 06 08 年 月 日 电子 周观点:ASIC 需求全面爆发,重视自研芯片产业机遇 北美 CSP 加速自研 ASIC 布局,谷歌&亚马逊进展领先。根据 Marvell, 2023 年定制加速计算芯片市场规模为 66 亿美元,占加速芯片的 16%, 预计到 2028 年定制加速计算芯片市场规模将达 429 亿美元,占加速芯片 的 25%,2023-2028 年 CAGR 为 45%。1)谷歌:行业领先者,已推出 TPU v6 Trillium 芯片,预计 2025 年将大规模替代现有 TPU v5;2)亚马 逊:亚马逊目前以与 Marvell 协同设计的 Trainium v2 芯片为主力,同时 联合 Alchip 开发 Trainium v3,据 TrendForce 预测,其 2025 年 ASIC 芯 片出货量年增速在美系 CSP 中表现突出;3)Meta:在部署首款自研 AI 加 速器 MTIA 后,正与博通联合开发 MTIA v2,针对 AI 推理负载的高度定制 化需求,重点优化能效与低延迟架构以平衡性能与运营效率;4)微软:当 前 AI ...
小摩:AI“印钞机”全速运转 博通(AVGO.US)Q2有望交出亮眼业绩
智通财经网· 2025-06-04 15:41
人工智能业务 - AI产品需求旺盛成为博通业绩增长主要驱动力 谷歌TPU v6 3nm ASIC芯片已开始量产爬坡 预计为2025财年剩余时间及2026财年带来显著收入贡献 [1] - 谷歌TPU处理器生命周期内收入将超过150亿美元 成为全球最强定制XPU AI加速器 [1] - Tomahawk 5/Jericho 3 AI产品需求持续旺盛 下一代3nm工艺Tomahawk 6芯片预计2025年下半年量产 [1] - 受益于谷歌TPU处理器放量 Meta/字节跳动等ASIC项目推进及AI网络产品稳定需求 2025财年AI业务收入有望达190亿至200亿美元 同比增长约60% [1] - 第三季度AI业务收入有望突破50亿美元 [2] 非AI半导体业务 - 行业周期性趋势改善 无线领域有望实现收入增长 企业级 服务器/存储 宽带等板块需求趋于稳定 [2] - 软件基础设施业务中VMware凭借强大续约能力 向高平均售价VCF全栈解决方案转换升级 与大型企业客户合作持续深化 业务势头强劲 [2] 财务表现与预期 - 第二季度营收 盈利和自由现金流将符合或略高于市场预期 订单情况稳固 [2] - 基于第二季度较高营收基数 预计第三季度营收环比增长5%-7% 达161亿美元左右 高于市场普遍预期 [2] 行业地位 - 博通是全球第二大AI半导体供应商 第一大定制芯片AI ASIC供应商及云/AI网络交换/路由芯片供应商 [2] - 凭借AI基础设施领域领先地位 多元化终端市场布局及行业领先的毛利率 运营利润率和自由现金流利润率 摩根大通将其视为半导体覆盖领域首选 [2]
小摩看好博通(AVGO.US)AI赛道持续领跑 维持“增持”评级
智通财经· 2025-06-03 16:45
摩根大通(小摩)最新发布的研报显示,博通(AVGO.US)凭借其在人工智能(AI)ASIC和网络半导体市场的 主导地位,正蓄势待发,有望在2025财年实现高达190亿至200亿美元的AI业务收入,同比增长60%以 上,与公司设定的三年服务可用市场(SAM)复合年增长率(CAGR)60%-65%目标一致。截至2025年6月2 日,博通股价为248.71美元,小摩给出12个月目标价250美元,维持"增持"评级。 博通的AI业务增长主要得益于其新一代产品的推出。例如,谷歌TPUv63nm ASIC项目已开始量产,每 个封装包含两个3nm计算芯片和八个堆叠的HBM3e芯片,成为全球最强大的定制AI XPU之一。小摩预 计,仅这一项目在博通的生命周期总收入将超过150亿美元,并将在2025年下半年至2026年上半年逐步 贡献收入。 此外,博通还计划在2025年下半年推出下一代Tomahawk63nm交换芯片,这将进一步巩固其在高性能以 太网交换芯片市场的领先地位,该市场目前由博通主导,占有80%以上的市场份额。Tomahawk6芯片支 持102Tbps的交换吞吐量和200Gbps SERDES,是目前全球性能最高的网络 ...
IP 设计服务展望:2026 年 ASIC 市场动态
2025-05-22 13:50
纪要涉及的行业和公司 - **行业**:IP/设计服务、ASIC市场 - **公司**:AWS、Google、META、Microsoft、Alchip、eMemory、GUC、Faraday、M31、Andes、Broadcom、Marvell、Apple、OpenAI、xAI、Intel、Bytedance、Li - auto、Furiosa、Qualcomm、MediaTek 纪要提到的核心观点和论据 各公司ASIC进展 - **AWS**:Trainium 3问题解决,继续与下游供应商接单,预计签署Trainium 4合同,实际项目已启动 [2] - **Google**:从TPU v6到v8进展稳定,规格高于其他CSP的ASIC,TPU v6p和v7p配置不同且ASP可能提升,未来难不与Broadcom合作 [2] - **META**:从MTIA v2向MTIA v3代际迁移,2026年MTIA v2产量10 - 20万片,MTIA v3产量20 - 30万片 [2] - **Microsoft**:Maia v2计划2026年量产50万片,原分配计划改变,Marvell获40万片;Maia v3供应商选择竞争激烈,预计年底出结果,MSFT/GUC团队分配量可能较少 [3][4] - **非CSP公司**:Apple、OpenAI、xAI等系统厂商构建自己的ASIC服务器,多在2H25流片,2H26量产,选择与Broadcom合作的规格高端,2027年非CSP服务器增多,利好Broadcom [7] - **Apple**:加速器预计4Q26量产,2026年出货10万片 [8] - **OpenAI**:3nm ASIC预计9月流片,2026年6月量产,2026年产量30 - 40万片,生命周期1 - 1.5年 [9] - **xAI**:3nm ASIC项目预计2H25流片,2H26量产,2026年产量30 - 40万片 [9] 公司业绩与业务情况 - **GUC**:FY25因Google CPU和加密项目收入可能超预期,Google 3nm服务器CPU收入提前至3Q25,预计成前5大客户;FY26即使无加密收入,代工收入仍有增长,CEO认为Google CPU和第三CSP客户潜在收入高于Maia v2 [10][11] - **M31**:今年重点是前季度签署合同的第二次付款;与Qualcomm合作紧密,Qualcomm 2H25启动2nm智能手机SoC项目,1Q26启动2nm AI PC处理器项目,MediaTek 2nm智能手机SoC项目未启动 [12][13] - **Faraday**:1Q25收入增长源于中国客户购买三星HBM2E的预付款,若客户被列入实体清单,剩余价值小且客户自行处理库存核销 [14] 其他重要但可能被忽略的内容 - 展示了多家公司的股票信息,包括市值、评级、价格、目标价、EPS、PE、PB、ROE、股息率等 [6] - 给出了CSPs的ASIC订单分配给设计服务提供商的情况 [15] - 呈现了ASIC的规格信息 [15] - 展示了ASIC MP的时间线 [17] - 给出了2026年各公司ASIC的芯片数量、晶圆发货量和收入贡献估算 [18]
研报 | AI芯片自主化进程加速,云端巨头竞相自研ASIC
TrendForce集邦· 2025-05-15 15:15
Tr e n dFo r c e集邦咨询表示,CSP为应对AI工作负载规模逐步扩大,同时计划降低对NVIDIA、AMD 的高度依赖,因此积极投入ASIC开发进程,以便能控制成本、性能和供应链弹性,进一步改善营运 成本支出。 观察美系四大CSP在AI ASIC进展,居领先地位的 Go o g l e(谷歌) 已推出TPU v 6 Trilli um,主打 能效比和针对AI大型模型的最佳化,预计2 0 2 5年将大幅取代现有TPU v 5。针对新一代产品开发, Go o g l e从原先与Br o a d c om(博通)的单一伙伴模式,新增与Me d i aTe k(联发科)合作,转为双供 应链布局。此举将提升设计弹性,降低依赖单一供应链的风险,并有助增加高阶先进制程布局。 AWS(亚马逊云科技) 目前以与Ma r v e ll(美满电子)协同设计的Tr a i n i um v 2为主力,其主要支持 生成式AI与大型语言模型训练应用,AWS也和Al c h i p合作Tr a i n i um v 3开发。Tr e n dFo r c e集邦咨询 预估2 0 2 5年AWS的ASIC出货量将大幅成长,年增表现 ...
推理芯片:英伟达第一,AMD第二
半导体行业观察· 2025-04-03 09:23
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容 编译自 IEEE ,谢谢。 在 MLCommons 发布的最新一轮机器学习基准测试结果中,基于 Nvidia 全新 Blackwell GPU 架构 构 建的 计算 机表现优于其他 所有计算机。但 AMD 的最新 Instinct GPU MI325 却与其 竞争对手 Nvidia H200相媲美。两者的可比结果主要来自对较小规模大型语言模型之一Llama2 70B(700 亿 个参数)的测试。然而,为了跟上快速变化的人工智能格局,MLPerf增加了三个新基准测试,以更 好地反映机器学习的发展方向。 MLPerf 针对机器学习系统进行基准测试,旨在提供计算机系统之间的同类比较。提交者使用自己的 软件和硬件,但底层神经网络必须相同。目前共有 11 个服务器基准测试,今年又增加了 3 个。 MLPerf Inference 联 合 主 席 Miro Hodak 表 示 , " 很 难 跟 上 该 领 域 的 快 速 发 展 " 。 ChatGPT 直 到 2022 年底才出现,OpenAI于去年 9 月推出了其首个可以推理任务的大型语言模型 (LLM),LLM ...