Vera Rubin GPU

搜索文档
小摩:HBM短缺料延续至2027年 AI芯片+主权AI双轮驱动增长
智通财经· 2025-07-07 17:13
HBM市场供需与技术趋势 - HBM供应紧张局面预计将持续至2027年,2026-2027年供应过剩逐步缓解,渠道库存预计增加1-2周 [2] - 三星HBM认证延迟叠加英伟达Rubin GPU位元需求增长是当前供需紧张主因 [2] - HBM4位元供应量2026年预计占比30%,2027年HBM4与HBM4E合计占比超70% [2] - 市场规模2026年同比增长超70%,占DRAM总TAM的45%、总位元需求的10% [2] - 2027年Vera Rubin GPU(1024GB容量)推出将成为主要增长动力 [2] 需求端驱动因素 - 2027年HBM位元需求重新加速,核心驱动力来自Vera Rubin GPU和AMD MI400(432GB HBM) [3] - 2024-2027年ASIC/英伟达/AMD位元需求CAGR超50%,英伟达2025-2027年位元占比超60% [3] - 谷歌TPU到2027年占ASIC总需求超50% [3] - 主权AI需求成为新变量:沙特计划投资100亿美元采购1.8万颗英伟达GPU,韩国推出100万亿韩元主权AI计划 [3] 定价与成本结构 - HBM4较HBM3E12Hi预计有30-40%价格溢价以弥补更高芯片损耗 [4] - 逻辑芯片成本占比高:4nm逻辑芯片晶圆成本13-14k美元/片,12nm约9-10k美元/片 [4] - 单颗Rubin GPU(8个HBM立方体)系统成本1000-1400美元 [4] 市场竞争格局 - 三星因认证延迟导致份额下滑,美光预计抢占其份额 [5] - 美光2025Q3 HBM营收环比增50%,季度营收运行率达15亿美元 [6] - SK海力士HBM4第六代产品份额预计保持60%以上领先 [6] 行业长期影响 - HBM推动DRAM进入5年上行周期,2030年占DRAM营收比例将从19%提升至56% [7] - 2025-2030年DRAM ASP CAGR 3%,高于历史周期 [7] - 三大厂商DRAM资本开支持续增长,2025年侧重基础设施,2026年后设备开支加速 [7]
英伟达GPU定价优势或将减弱
半导体行业观察· 2025-04-04 11:46
英伟达GPU定价权问题 - 汇丰银行报告指出英伟达正在失去GPU定价权 将股价目标从175美元下调至120美元 并将股票评级从"买入"降至"持有" [1] - 英伟达GPU价格此前受技术优势 供应短缺和高制造成本支撑 但1月DeepSeek抛售事件导致市值蒸发近6000亿美元 因市场对其需求产生怀疑 [1] - 汇丰认为B200和B300 Blackwell AI GPU之间没有显著价格上涨 且下一代Vera Rubin GPU升级有限 仅依赖HBM4内存 [2] 英伟达股价表现与市场反应 - 英伟达股票是2025年表现最差之一 年初至今下跌24% 今日开盘下跌4 9% 受特朗普政府关税政策影响 [1] - 汇丰降级后 英伟达股价跌幅扩大至5 34% [2] - 公司CEO黄仁勋曾为GPU高价辩护 称其能提升用户效率并节省成本 且制造复杂 [3] 行业动态与供应链 - 英伟达与台积电 富士康合作在美国本土制造GPU 但被特朗普关税政策排除在外 [3] - 公司正游说美国政府取消AI GPU销售限制 目前仅允许向18个盟国无限量销售 [3] - 英伟达系统将支持每个机架72个GPU 直至2027年Rubin Ultra产品推出 [2]
下一代GPU发布,硅光隆重登场,英伟达还能火多久?
半导体行业观察· 2025-03-19 08:54
核心观点 - 英伟达在GTC大会上发布了新一代GPU路线图,包括Blackwell Ultra、Vera Rubin和Feynman架构,展示了其在AI计算领域的持续创新 [2][7][13] - 公司预计2028年数据中心资本支出规模将突破1万亿美元,美国四大云端龙头已订购360万个Blackwell芯片 [1] - 黄仁勋强调AI计算正经历根本性变革,从文件检索转向Token生成,数据中心建设向加速计算发展 [43][44] Blackwell Ultra平台 - Blackwell Ultra提供288GB HBM3e内存,比原版Blackwell的192GB提升50% [3] - FP4计算能力比H100提升1.5倍,NVL72集群运行DeepSeek-R1 671B模型仅需10秒,而H100需要1.5分钟 [4] - 单个Ultra芯片提供20 petaflops AI性能,DGX GB300 Superpod集群拥有300TB内存和11.5 exaflops FP4计算能力 [3] - 适用于代理式AI和物理AI应用,可自主解决复杂多步骤问题和实时生成合成视频 [6] 性能对比 - B300在FP4 Tensor Dense/Sparse性能达15/30 petaflops,比B200的10/20 petaflops提升50% [4] - FP64 Tensor Dense性能达68 teraflops,比B200的45 teraflops提升51% [4] - 与Hopper一代相比,HGX B300 NVL16在大型语言模型推理速度提升11倍,计算能力提升7倍,内存增加4倍 [5] Vera Rubin架构 - 计划2026年下半年发布,包含Vera CPU和Rubin GPU,性能比Grace Blackwell显著提升 [7][9] - Vera CPU采用88个定制ARM内核,NVLink接口带宽1.8 TB/s,比Grace CPU快两倍 [8] - Rubin GPU提供1.2 ExaFLOPS FP8训练性能,是B300的3.3倍,内存带宽从8 TB/s提升至13 TB/s [9][10] - NVL144机架配置提供3.6 exaflops FP4推理能力,是Blackwell Ultra的3.3倍 [11] 硅光技术 - 公司计划在Quantum InfiniBand和Spectrum Ethernet交换机中部署共封装光学器件(CPO) [17] - CPO技术使信号噪声降低5.5倍,功率需求减少3.3倍,可连接GPU数量增加3倍 [25][26] - 首款Quantum-X CPO交换机将于2025年下半年推出,提供144个800Gb/s端口 [27] - Spectrum-X CPO交换机计划2026年下半年推出,最高支持512个800Gb/s端口 [28] 行业动态 - OpenAI计划建设容纳40万个AI芯片的数据中心,Meta计划2024年底拥有60万个H100等效计算能力 [29][30] - 公司股价在发布会后下跌3.4%,反映市场对竞争加剧的担忧 [31] - 谷歌、Meta和亚马逊都在开发自研AI芯片,行业竞争日趋激烈 [30] 未来路线图 - 2027年下半年推出Rubin Ultra,采用NVL576配置,提供15 exaflops FP4推理性能 [12] - 2028年计划推出Feynman架构,进一步推动AI计算性能边界 [13] - 黄仁勋预计数据中心建设投资将很快达到1万亿美元,加速计算成为转折点 [42][43]
英伟达股价,暴跌
半导体行业观察· 2025-02-28 11:08
华尔街对Nvidia的悲观看法 - Nvidia股价周四下跌逾8%至12015美元,拖累微软、亚马逊等"七巨头"股票表现疲软[2] - 公司预计Q1营收增幅约65%,远低于过去三位数增幅,毛利率预计降至71%(至少一年最低水平)[3] - 1月季度营收3933亿美元仅超预期34%,去年同期超预期幅度达7%以上[6] - 中国初创公司DeepSeek的低成本AI模型引发市场对科技巨头AI基础设施投入的质疑[3] 财务与估值表现 - 公司市值在AI热潮中突破3万亿美元,但上月单日市值蒸发超5000亿美元创华尔街纪录[3] - 当前股价交易于29倍预期市盈率(两年前为80倍),低于AMD的22倍市盈率[8] - 分析师目标价中值175美元隐含33%上涨空间,63位分析师中33位给予"强力买入"评级[8] 产品与技术路线图 - Blackwell芯片已获得110亿美元收入,Blackwell Ultra将于2025年下半年推出[7][9] - B300系列将配备12-Hi HBM4E内存(最高288GB),性能较B200提升约50%[10] - 下一代Rubin架构GPU计划2026年推出,配备HBM4E内存和NVLink 6交换机(3600GB/s带宽)[11] - 2027年可能推出配备12个HBM4E堆栈的Rubin Ultra,采用台积电55倍尺寸CoWoS中介层[12] 市场需求与竞争态势 - 微软削减数据中心租赁引发市场对科技支出的担忧[4] - Q1营收指引430亿美元(±2%)高于分析师平均预期的4178亿美元[4] - 公司被视为AI支出健康度的晴雨表,但增长放缓迹象引发投资者担忧[3][5] 产品性能参数 - Blackwell Ultra将配备新型网络和12-Hi HBM3E内存[9] - B300系列搭载Mellanox Spectrum Ultra X800以太网交换机(支持512端口)[10] - Rubin平台包含Vera CPU、CX9网卡(1600Gb/s)和X1600交换机[11]