Workflow
HGX B200
icon
搜索文档
集邦咨询:预估Blackwell将占2025年英伟达(NVDA.US)高阶GPU出货逾80%
智通财经网· 2025-07-24 16:59
服务器市场动态 - 整体服务器市场趋于平稳,ODM厂商聚焦AI服务器发展 [1] - 第二季度开始,英伟达GB200 Rack、HGX B200等Blackwell新平台产品逐步放量 [1] - Blackwell GPU预计占NVIDIA高阶GPU出货比例80%以上 [1] 北美CSP大厂与ODM合作 - Oracle扩建AI数据中心,为富士康带来订单增长,同时利好Supermicro和广达 [2] - Supermicro主要成长动力来自AI服务器,已获得部分GB200 Rack项目 [2] - 广达受益于Meta、AWS和Google等大型客户合作,成功拓展GB200/GB300 Rack业务 [2] - 纬颖科技深化与Meta、Microsoft合作,预计带动下半年业绩成长,是AWS Trainium AI机种主要供应商 [2] 液冷技术发展 - GB200/GB300 Rack出货扩大将推动液冷散热方案在高阶AI芯片的采用率 [2] - 新建数据中心在设计初期导入"液冷兼容"概念,提升热管理效率与扩充弹性 [2] - 液冷成为高效能AI数据中心标准配置,带动散热零部件需求升温 [4] 液冷供应链动态 - 富世达已正式出货GB300平台专用的NV快接头,搭配母公司AVC设计的冷水板 [4] - 富世达在AWS ASIC液冷快接头供应比例可与丹佛斯抗衡 [4] - 双鸿积极布局数据中心液冷市场,客户包括Oracle、Supermicro与HPE [4] - 双鸿开始出货液冷产品给Meta,有望加入Meta、AWS的第二波冷水板核心供应体系 [4]
机构:预估Blackwell将占2025年英伟达高阶GPU出货逾80% 液冷散热渗透率续攀升
快讯· 2025-07-24 16:53
英伟达Blackwell GPU市场表现 - 预估2025年Blackwell将占英伟达高阶GPU出货比例80%以上 [1] - 第二季开始英伟达GB200 Rack、HGX B200等Blackwell新平台产品逐步放量 [1] - Blackwell下一代B300、GB300系列已进入送样验证阶段 [1] AI服务器市场趋势 - 近期整体服务器市场转趋平稳 ODM厂商均聚焦AI服务器发展 [1] - 2025年GB200/GB300 Rack出货将扩大 [1] 液冷散热技术发展 - 液冷散热方案在高阶AI芯片的采用率持续升高 [1]
研报 | 预估Blackwell将占2025年英伟达高阶GPU出货逾80%,液冷散热渗透率续攀升
TrendForce集邦· 2025-07-24 16:46
AI服务器市场动态 - 2024年第二季度起,NVIDIA Blackwell新平台产品(GB200 Rack、HGX B200)逐步放量,B300/GB300系列进入送样验证阶段,预计Blackwell GPU将占NVIDIA高阶GPU出货比例80%以上 [1] - 北美CSP大厂Oracle扩建AI数据中心,带动富士康订单增长,同时利好Supermicro和广达等ODM厂商 [2] - Supermicro近期获得部分GB200 Rack项目,广达受益于Meta、AWS、Google等客户合作,成功拓展GB200/GB300 Rack业务并新增Oracle订单 [2] - 纬颖科技以ASIC AI Server为主力,深化与Meta、Microsoft合作,成为AWS Trainium AI机种主要供应商,预计下半年业绩增长 [2] 液冷技术发展趋势 - 2025年GB200/GB300 Rack出货扩大将推动液冷散热方案在高阶AI芯片的采用率提升,新建数据中心在设计初期即导入"液冷兼容"概念以优化热管理效率 [3] - 液冷架构需配套复杂设施(如冷却液管线、冷却水塔、CDU),相比传统气冷系统更高效且具扩充弹性 [3] - 液冷成为高效能AI数据中心标配,带动散热零部件需求升温,富世达已量产出货GB300专用快接头及AWS ASIC液冷快接头,供应比例与丹佛斯相当 [5] - 双鸿积极布局数据中心液冷市场,客户包括Oracle、Supermicro、HPE,产品涵盖冷水板与分歧管模块,并开始向Meta供货,有望进入GB200平台供应链 [5] 产业链核心厂商动向 - 富士康、广达、Supermicro、纬颖科技等ODM厂商因AI服务器需求增长显著受益,订单主要来自Oracle、Meta、AWS、Google等大型客户 [2] - 富世达和双鸿成为液冷散热关键零部件供应商,分别切入NVIDIA GB300和Meta/AWS供应链,推动液冷技术商业化落地 [5]
AMD 推进人工智能:MI350X 与 MI400 UALoE72、MI500 UAL256——SemiAnalysis
2025-06-16 00:03
纪要涉及的公司和行业 - **公司**:AMD、英伟达(Nvidia)、AWS、Meta、OpenAI、x.A、微软(Microsoft)、甲骨文(Oracle)、字节跳动(ByteDance)、台积电(TSMC) - **行业**:半导体、云计算、人工智能 纪要提到的核心观点和论据 AMD新产品竞争力 - **M50X/M55X**:在中⼩型LLMs推理的每TCO性能上可与英伟达HGX B200竞争,但M55X⾮机架级产品,在尖端模型推理或训练上⽆法与英伟达GB200 NVL72抗衡;M55X功耗⾼1.4倍,但TFLOPS吞吐量仅⽐M50X快不到10%,实际性能优势预计超10%;M50X和M55X在BF1/FP8/FP数据类型纸⾯规格能与HGX B200抗衡,M55X FP性能⽐B200 FP快2.2倍,但实际受功耗限制[7][11][15][16][17]。 - **M00系列**:有望在202年下半年成为与英伟达VR200 NVL1竞争的机架级解决⽅案;虽未采⽤真正UALink技术,但其基于以太⽹UALink在纵向扩展带宽上可与VR200 NVL1的NVLink竞争,且⽀持72个逻辑GPU纵向扩展规模;AMD宣布开发者云服务将M00按需定价降⾄1. 美元/⼩时/GPU,或使租⽤AMD GPU具竞争⼒[8][11][12][13]。 - **M500 UAL25**:2027年末发布,将配备25个物理/逻辑芯⽚,⽽VR00 NVL57仅1个[13]。 市场与客户 - **超⼤规模企业与AI实验室**:AMD产品总体拥有成本和每TCO性能潜⼒获超⼤规模企业和⼤型AI实验室共鸣,订单势头强劲;AWS⾸次⼤规模采购并部署AMD GPU⽤于租赁;Meta开始⽤AMD训练,参与M55X和M00项⽬;OpenAI欣赏AMD发展态势,x.A将⽤AMD系统进⾏⽣产级推理;甲骨文计划部署 万台M55X;微软少量订购M55,对M00部署持积极态度[58][59][60][61][62][64][65]。 - **Neocoud租赁市场**:专注AMD的Neocoud服务商少,导致AMD GPU租赁价格⾼,削弱成本竞争⼒;M00X和M25X需达特定租赁价格才能与英伟达H200竞争;AMD通过回租算⼒激励Neocoud支持,构建低风险商业模式;开发者云推出降低M00X租赁价格,但默认配额设置待优化[67][68][69][70][74][75][76][77]。 软件与技术 - **ROCm软件**:AMD发布专注推理性能的ROCm 7,宣称推理吞吐性能相⽐ROCm 平均提升3.5倍,服务DeepSeek R1时相⽐Nvidia B200有1. 倍优势;支持分布式推理,支持vLLM、SGLang和m - d编排框架,但m - d缺乏KVCache管理器等功能;对Triton内核编写库支持提升,对字节跳动Triton Distributed感兴趣;整合Mooncake Transfer Engine和DeepEP未开源;推出开发者云平台与积分计划及Python包“rocm”[82][83][84][86][88][89]。 - **PyTorch持续集成与测试**:AMD为M55芯⽚在PyTorch添加持续集成和⾃动化测试;英伟达积极推动开源B200 PyTorch持续集成,承诺捐赠8台B200给PyTorch Foundation;英伟达应加⼤对Backwe PyTorch持续集成投⼊,将消费级GPU纳⼊持续集成体系[91][92][93]。 - **MLPerf训练基准测试**:AMD⾸次提交单节点Lama2 70B LoRA微调和BERT训练的MLPerf训练测试结果,应参与更多实际场景训练基准测试;AMD MLPerf运⾏指南易复现,与英伟达形成对⽐[94][95][96]。 竞争与市场格局 - **英伟达DGX Lepton**:其商业战略可能推动AI计算资源商品化,使客户在不同云平台迁移推理⼯作负载,吸引关注推理和⼩规模训练的⽤⼾;但引发Neocoud不满,为AMD创造合作机会;对终端⽤⼾提升总体拥有成本效益,实现体验标准化[37][38][40][41][42][45]。 - **M55X营销话术**:AMD将M55X宣传为“机架级解决⽅案”不实,其集体性能⽐GB200 NVL72差18倍,在专家混合模型推理和训练的全对全通信及2D并⾏策略的全规约操作中性能远低于GB200 NVL72[46][47][48][49][54][55]。 其他重要但是可能被忽略的内容 - **AMD GPU分区项目**:AMD将⼤量资源浪费在GPU分区项⽬上,客户⽆此需求,客户希望AMD为多节点推理提供更好⽀持[98][99][100]。 - **M55X制造工艺**:AMD优化M55X芯粒架构,调整布局优化⼩芯⽚间通信,节省功耗与⾯积,但使D堆叠良率更重要;基础芯⽚速度升级,内存控制器支持更快HBME;计算芯⽚XCD从台积电N5制程升级⾄NP节点,启⽤计算单元数量变化,布局⽅向改变[104][105][106][107][108][109][111][112]。
摩根士丹利:英伟达-中国台湾地区的数据比人们认为的更符合我们的观点
摩根· 2025-05-15 23:24
报告行业投资评级 - 股票评级:Overweight(增持)[8] - 行业观点:Attractive(有吸引力)[8] - 目标价格:$160.00 [8] 报告的核心观点 - 4月GB200出货量显著改善,有助于解决股票关键担忧,英伟达在机架和HGX生态系统中库存过剩风险低,维持增持评级,是半导体行业首选 [11] - 台湾机架数据改善,整体情绪可能提升,4月出货近1500个机架,若后续每月维持此水平全年将达15k,且月环比有改善可能 [17][18] - 英伟达4月季度未过度出货,结合传统HGX数据,可缓解CoWoS与服务器不匹配问题,公司积极观点基于行业需求强劲 [19][21][22] - 虽看好英伟达,但短期预期需谨慎,H20禁令影响营收,更大催化剂可能来自下半年管理层积极态度 [23] 根据相关目录分别进行总结 英伟达业务情况 - 英伟达GB200技术集成机架规模解决方案早期推广缓慢,台湾对机架部署的一些估计过高 [3] - 预计约50%的Blackwells将以机架形式销售,约25 - 30k,远低于台湾一些高达70 - 90k的说法 [5] - 有报告称Blackwell Ultra(现称B300/GB300)有延迟,但未听说重大干扰,且可能无需加速计划,还考虑用当前Bianca卡搭配B300首代产品 [6] 财务数据 - 2025 - 2028财年GAAP收入分别为130,497mm、190,818mm、255,527mm、297,613mm美元,MW毛利率分别为75.4%、69.4%、73.9%、75.6% [38] - 2025 - 2028财年MW EPS分别为2.92、3.81、5.70、6.64美元,库存分别为10,080mm、14,092mm、16,564mm、18,852mm美元 [38] 风险回报分析 - 目标价格$160.00,约为28倍MW CY25 EPS估计值$5.70,与大型AI同行AVGO大致相符,反映对英伟达估计上调的更高信心 [26] - 牛市情景下,DC收入持续增长,网络、GB200系统和软件带来全栈AI计算公司潜力,33倍MW CY26 EPS约$6.00 [34] - 基础情景下,2025年和2026年收入分别增长46.2%和33.9%,数据中心持续显著增长,28倍MW CY26 EPS为$5.70 [35] - 熊市情景下,DC增长大幅放缓,AI开发成本下降、有强大竞争对手或客户自制硬件,出口管制影响超预期,23倍MW CY26 EPS约$4.15 [37] 投资驱动因素 - 全球收入方面,中国大陆占40 - 50%,北美占10 - 20%,亚太(除日本、中国大陆和印度)占10 - 20%,欧洲(除英国)、日本、拉丁美洲、英国占0 - 10% [44] - 销售增长驱动因素包括客户AI资本支出增长、下一代GPU领先竞争、系统方法实现更高货币化、新驱动因素如AI PC、自动驾驶汽车、机器人和软件出现 [44] 行业覆盖公司评级 - 报告对半导体行业多家公司给出评级,如Advanced Micro Devices为Equal - weight(持股观望),NVIDIA Corp.为Overweight(增持)等 [104]
英伟达(NVDA.US)GB200机架出货向好 大摩给予“增持”评级
智通财经网· 2025-05-13 12:16
核心观点 - 英伟达GB200机架出货量显著改善,摩根士丹利认为这能消除投资者对机架数量下降的担忧 [1] - 机架出货量反映GB200产能和交付能力,而非芯片性能,单台机架可能集成多颗GB200芯片,出货量增加直接体现市场对AI算力的需求强度 [1] - 4月季度出货量未超过需求,行业数据显示4月3家ODM厂商机架出货量接近1500台,与预估相符 [1] - 4月后情况可能继续改善,CoreWeave和xAI等公司已要求使用HGX B200构建48到64个GPU的机架 [1] - 行业调查显示未来几个季度需求将大幅增强,数据改善对股价是利好 [2] 出货量数据 - 截至4月已出货2500台机架,若剩余时间每月维持1500台,全年总出货量将达1.5万台左右 [1] - 4月3家ODM厂商机架出货量接近1500台 [1] 市场需求 - GB200机架出货量增加体现市场对AI算力的需求强度 [1] - CoreWeave和xAI等公司要求使用HGX B200构建48到64个GPU的机架,显示需求持续 [1] - 行业调查显示未来几个季度需求将大幅增强 [2] 行业动态 - 中国台湾省ODM团队发现4月机架出货量接近1500台,与预估相符 [1] - 4月后情况可能继续改善,存在进一步上涨空间 [1]
黄仁勋,碰到大麻烦
半导体行业观察· 2025-03-30 10:56
一切都从这里开始 其中第一个也是最明显的挑战是围绕计算扩展(scaling compute)。 近年来,工艺技术的进步已经放缓。虽然仍有一些可以改变的因素,但改变的难度却呈指数级增 长。 如果您希望可以时常见面,欢迎标星收藏哦~ 正如黄仁勋 (Jensen Huang) 喜欢说的那样,摩尔定律已死——而在本月的 Nvidia GTC 大会上,这 位 GPU 大佬的首席执行官无意中透露了计算缩放定律的根深蒂固。 黄仁勋站在台上,不仅展示了这家芯片设计公司的下一代Blackwell Ultra处理器,还透露了有关其 未来两代加速计算平台的大量细节,其中包括一个包含576 个 GPU 的600kW 机架级系统。我们还 了解到,即将于 2028 年问世的 GPU 系列将以Richard Feynman的名字命名。你肯定在开玩笑! 芯片制造商不时透露其发展路线图并不罕见,但我们通常不会一次性获得这么多信息。这是因为 Nvidia 陷入了困境。它遇到的障碍不只一个,而是好几个。更糟糕的是,除了投入资金解决问题 外,这些障碍基本上都不受 Nvidia 的控制。 这些挑战对于那些关注的人来说并不意外。分布式计算一直是瓶颈打地 ...