Hopper GPU
搜索文档
Nvidia and Advanced Micro Devices Have Sounded a $711 Billion Warning to Wall Street That AI Investors Simply Can't Ignore
Yahoo Finance· 2026-03-22 21:26
人工智能对全球经济与科技行业的影响 - 人工智能被视为继互联网之后真正实现技术飞跃的趋势 有望在2030年前为全球经济增加15.7万亿美元 [1][2] - 自2023年初以来 英伟达和AMD的股价分别飙升了1140%和208% 反映了市场对人工智能的强烈预期 [2] 英伟达与AMD在AI领域的市场地位 - 两家公司成为人工智能领域最关键的企业之一 其市场关注度主要源于图形处理器业务 [6][7] - 英伟达的GPU在企业数据中心市场份额上多年保持近乎垄断的地位 其Hopper、Blackwell和Blackwell Ultra等数代产品在计算能力上优于包括AMD在内的外部竞争对手 [8] - 英伟达首席执行官黄仁勋正在推动激进的创新周期 计划每年推出新的先进AI芯片 Vera Rubin GPU将于2026年下半年接替Blackwell Ultra上市 [9] 英伟达与AMD的GPU产品竞争动态 - AMD的Instinct系列GPU在短期内未能赶上英伟达 但其芯片仍然具有高价值 其硬件成本更低且可能提供更短的等待时间 [10] - 人工智能领域的先发优势并不仅限于计算能力 AMD完全可以利用其产品的性价比和供应动态 [10] - 分析师认为 AMD或任何海外竞争对手在短期内都不太可能缩小与英伟达的技术差距 [9] 市场对AI相关公司业绩的反应 - 尽管英伟达和AMD的运营业绩验证了投资者的热情 但华尔街对其季度业绩的即时反应是一个高达7110亿美元的警示 AI投资者不能忽视 [5]
Nvidia's GTC will mark an AI chip pivot. Here's why the CPU is taking center stage
CNBC· 2026-03-14 03:00
公司核心战略与产品动态 - 英伟达计划在其年度GTC大会上公布其针对智能体人工智能优化的中央处理器新细节,并可能展示纯CPU机架[1][2] - 公司认为CPU正成为扩展AI和智能体工作流程的瓶颈,并将其视为一个令人兴奋的机会[2] - 公司已宣布其首款数据中心CPU Grace,下一代Vera现已投入生产,这些CPU通常与公司的Hopper、Blackwell或Rubin GPU一起部署在全机架系统中[2] - 公司与Meta达成一项多年期协议,其中包括首次大规模独立部署Grace CPU,并计划在2027年部署Vera CPU[3] - 公司表示其独立CPU在Meta的数据中心中实现了显著的每瓦性能提升[9] - 公司CEO在财报电话会议上12次提及智能体AI,并表示随着硬件需求转变,“最佳的每瓦性能就是一切”[8] - 公司采用与行业领导者不同的根本性设计方法,使其CPU最适合数据处理和智能体AI工作流程,其CPU基于Arm架构,而英特尔和AMD的CPU基于x86架构[12][15] - 公司CPU的核心数量为72个,而AMD EPYC和英特尔Xeon高性能服务器CPU通常有128个核心,公司设计更侧重于单线程性能,以确保昂贵的GPU资源不会闲置[13][14] - 公司对竞争通常持欢迎态度,并保持“平台无关”的战略,公司已将其NVLink网络技术向第三方授权开放,并与英特尔、高通、富士通和Arm达成一系列NVLink协议,还支持开放指令集架构RISC-V,并与SiFive达成协议[18][19][20] 市场表现与行业趋势 - 对GPU的爆炸性需求使英伟达成为家喻户晓的名字和全球市值最高的上市公司,市值达4.4万亿美元[3] - 在最新季度,公司数据中心收入超过620亿美元,同比增长75%[4] - 美国银行预测,CPU市场可能增长超过一倍,从2025年的270亿美元增长到2030年的600亿美元[4] - CPU的复兴是由计算需求的根本性变化驱动的,大规模AI应用从问答聊天机器人转向面向任务的智能体应用[5] - 智能体AI需要大量通用计算能力,以在AI工作流程中移动大量数据,并在多个智能体之间进行协调[6] - 行业分析机构The Futurum Group称,曾经沉寂的中央处理器市场正面临一场“安静的供应危机”,并预测CPU市场增长率可能在2028年超过GPU[9] - 据路透社报道,领先的CPU提供商AMD和英特尔已就供应短缺问题警告中国客户,CPU交付周期长达六个月,价格上涨超过10%[10] - AMD数据中心负责人表示,过去六到九个月的需求增长是前所未有的,且看不到放缓或停止的前景[10] - 英特尔发言人表示,预计本季度库存将降至“最低水平”,但正在积极应对,并预计从第二季度到2026年供应将有所改善[11] - 根据Mercury Research的数据,2025年第四季度服务器CPU市场份额由英特尔主导,占60%,AMD占24.3%,英伟达占6.2%,其余份额由亚马逊、微软和谷歌等超大规模公司的内部Arm架构CPU瓜分[18] 竞争格局与客户动态 - 亚马逊在2018年率先推出内部CPU Graviton,谷歌的Axion处理器在2024年发布,现已处理约30%的内部应用,微软在11月发布了第二代Cobalt处理器,Arm预计今年将推出自己的内部CPU,Meta是早期客户[17] - AMD数据中心负责人评价英伟达的芯片为优化以“喂养其GPU”而设计得很好,但并未针对通用应用程序进行良好优化[15] - 公司确实在一些产品中依赖更通用的CPU,例如在其HGX Rubin NVL8平台中,公司将GPU与英特尔或AMD的主机CPU配对[15] - 随着更多客户为其数据中心制造自己的基于Arm的处理器,公司进入了独立CPU市场[16]
英伟达要开源6G,有厂商该焦虑了
半导体行业观察· 2026-03-02 09:41
文章核心观点 - 美国政府和行业对5G的现状感到失望,认为其相比4G改进有限且并非为AI设计,同时市场由爱立信和诺基亚主导 [2] - 行业正从Open RAN转向开源机制,由美国战争部和Linux基金会主导的OCUDU计划旨在将开源代码注入6G核心,英伟达是重要推动者 [2] - 英伟达等公司推动6G“原生支持AI”和“开放”,但“开放”与“开源”在电信领域常被混淆,现有5G系统多为专有,限制了创新 [3][5][6] - 开源6G可能威胁爱立信和诺基亚基于技术授权的商业模式,并可能催生新挑战者,但这两家公司的参与对计划发展至关重要 [13] 5G现状与行业挑战 - 除了容量增加,5G相比4G改进有限,且最初并非为AI设计 [2] - 除中国外,5G网络控制权仍由爱立信和诺基亚两家欧洲公司牢牢掌控 [2] - Open RAN运动未能改变市场动态,行业注意力已转向开源 [2] - 现有5G系统主要为专有系统,阻碍了小型公司进入市场和创新 [6] 6G开源计划与参与者 - 美国战争部与Linux基金会联手发起OCUDU计划,旨在将开源代码注入6G网络核心 [2] - 英伟达是OCUDU签约成员,大力宣传“开放”和“开源”理念,并将其作为独立但相关的6G项目一部分 [2] - 该6G“承诺”旨在确保6G设计为“原生支持人工智能”和“开放” [3] - 电信运营商签署方包括英国电信、德国电信、SK Telecom、软银和T-Mobile [3] - 爱立信和诺基亚也出现在OCUDU成员名单上 [3] “开放”与“开源”的争议 - 在电信领域,“开放”一词常被滥用,很少真正指代开源软件 [5] - 3GPP声称完全开放,但爱立信和诺基亚的大部分利润来自技术授权,被认为与开源原则不符 [5][6] - Open RAN仍被认为过于封闭,开发者必须身处生态系统才能进行开发 [6] - 开源6G若广泛采用,可使开发者(如拥有新波束成形算法的公司)更容易将技术集成到更大平台 [6] 技术路径与硬件竞争 - 英伟达拥有名为Aerial的开源RAN参考平台,允许开发者在其中插入AI原生波形 [7] - 但Aerial要求开发者主要在英伟达的CUDA框架内工作,其第一层软件无法部署在英特尔、AMD或基于Arm的CPU上 [7] - 英伟达倾向于使用其GPU处理所有第一层功能(包括FEC),认为GPU擅长此类并行计算 [10] - 英特尔倡导虚拟化RAN,其最新产品已将FEC集成到CPU中 [8] - 爱立信正调整软件以部署在英伟达的Grace CPU(基于Arm)上,仅将FEC外包给英伟达GPU [10] - 诺基亚采用“原生实现”,在试点中使用英伟达GPU处理第一层,可能被英伟达锁定;爱立信则试图保持芯片选择灵活性 [11] - 电信运营商担忧将高能耗的GPU集成到RAN中成本高昂 [11] 对现有厂商的潜在影响 - 开源的6G可能威胁爱立信和诺基亚基于技术授权的商业模式,并可能催生新挑战者 [13] - 爱立信和诺基亚参与OCUDU的动机包括与美国政府及军方合作,美国是其利润主要来源 [13] - Linux基金会预计诺基亚和爱立信不会立即抛弃所有现有代码,而是循序渐进地提高兼容性 [13] - 6G计划被强调不是标准组织,而3GPP等将定义6G标准,但AI的快速发展是传统标准组织未曾处理的新变量 [13] - 人工智能对6G的影响程度是动态变化的大问题,过早锁定标准可能限制功能 [14]
英伟达财报及电话会分析
傅里叶的猫· 2026-02-26 08:16
核心观点 - 英伟达2026财年第四季度业绩持续超预期,但市场反应平淡,表明投资焦点已从早期狂热转向对实质增长的追求 [2] - 公司增长动力从数据中心业务扩展至专业可视化、游戏AI PC等多领域,并依托下一代芯片平台和战略合作巩固行业领导地位 [2][10][11] - 管理层对未来增长充满信心,给出了远超市场预期的营收指引,并认为智能体AI的实用化拐点将驱动全球算力需求持续扩张 [4][6] 财务表现 - **营收与增长**:2026财年第四季度营收达681亿美元,同比增长73%,远超市场预期的662.3亿美元;环比增长20% [2][3] - **分业务表现**: - 数据中心业务营收同比增长超75% [2] - 专业可视化业务营收激增159% [2] - 游戏与人工智能个人电脑业务营收大涨47% [2] - 汽车与机器人业务营收增长6% [2] - **盈利能力**:毛利率为75.2%,运营利润率为67.7%,均符合市场预期;运营收入同比增长84%至442.99亿美元,净收入同比增长94%至429.60亿美元 [2][3] - **每股收益**:稀释后每股收益为1.76美元,同比增长98% [3] - **现金流与资本回报**:第四季度产生近350亿美元自由现金流,同比增加逾190亿美元;本季度回购了价值近40亿美元的股票,截至季末仍有约585亿美元的回购额度 [5] - **历史对比与指引**:相比三年前华尔街对同期117.6亿美元的营收预期,实际业绩飙升超600亿美元;管理层对2026财年4月季度的营收指引为780亿美元(上下浮动2%),远超市场预期 [3][4] 增长驱动力与战略 - **智能体AI**:已达到实用智能拐点,其核心标志是令牌生成具备盈利性,这直接推动了全球算力扩张需求;预计传统数据中心工作负载向GPU加速计算的转型将贡献约50%的长期增长机会 [6] - **下一代芯片平台**: - **Blackwell架构**:目前是主力架构,已部署近9吉瓦,其GB系列贡献了约三分之二的数据中心收入 [10] - **Rubin平台**:已于2026年2月交付客户样品,计划2026年下半年量产,全年将实现Blackwell与Rubin双线销售;其优势在于优化MOE模型训练效率和推理成本 [10] - **战略合作与收购**: - 与Groq达成非独家许可协议,整合其低延迟推理技术及工程师团队,旨在增强自身AI基础设施性能,巩固在推理领域的优势 [7] - 与核心客户深度绑定:与OpenAI基于Grace Blackwell系统合作推进GPT-5.3 Codex;Meta已部署数百万Blackwell和Rubin GPU,并投资100亿美元与Anthropic合作,后者的模型将全部基于英伟达系统 [11][12] - **市场拓展**: - **主权AI**:2026财年相关业务收入超300亿美元,同比翻倍,核心客户来自加拿大、法国等多国 [12] - **中国市场**:H200产品已获美国政府批准,但尚未产生收入 [12] 前沿布局与未来展望 - **太空数据中心**:目前处于前沿布局阶段,经济性较差但长期前景将改善;已有Hopper GPU部署于太空,主要用于高分辨率成像数据的AI预处理,以减少回传数据量 [9] - **未来路线图**:公司拥有清晰的架构迭代节奏,致力于通过技术整合与架构优化保持领先;Rubin平台的模块化无电缆设计旨在提升系统弹性和可维护性 [7][10]
英伟达现在的情况不会持续太久
美股研究社· 2026-01-16 20:34
文章核心观点 - 英伟达2026财年第三季度业绩稳健超预期,尽管市场对AI支出存在担忧,但公司凭借数据中心业务的强劲增长、健康的财务状况、领先的技术平台和生态系统护城河,在AI革命中占据主导地位,分析师认为其长期前景稳固,2026年存在多个增长动力,但同时也面临行业估值调整的潜在风险 [1][2][14][22] 2026财年第三季度财报表现 - **营收与盈利超预期**:第三季度营收达570.1亿美元,超出市场预期3.48%,同比增长26% [1][4];调整后每股收益为1.30美元,超出分析师预期3.46% [1] - **数据中心业务驱动增长**:数据中心部门收入达512亿美元,同比增长66%,表明需求依然强劲 [4] - **毛利率变化与原因**:毛利润同比增长60%至418亿美元,但毛利率同比下降1.2个百分点至73.4%,主要原因是销售模式从单个芯片转向包含GPU、冷却系统、网络解决方案等的完整系统,这些附加部件的利润率较低 [5] - **出色的运营与盈利能力**:营业收入同比增长65%至360亿美元;净利润同比增长65%至319亿美元,基本每股收益为1.31美元 [6] - **强劲的资产负债表与现金流**:现金及现金等价物同比增长40%至606亿美元,总资产1611亿美元,总负债423亿美元,资产负债表健康 [6];经营现金流同比增长40%至665亿美元,自由现金流同比增长36%至617亿美元 [6] - **下季度展望积极**:管理层预计下季度营收约为650亿美元(上下浮动几个百分点),毛利率预计约为74.8%,显示持续增长势头和利润率可能企稳甚至提升 [6] 英伟达的估值分析 - **当前股价与历史表现**:发布时股价约188美元/股,过去六个月上涨约10%,一年期回报率约42%,五年期涨幅近1300% [9] - **估值倍数高于行业**:公司当前GAAP预期市盈率约40倍,意味着投资者为其每1美元年化收益支付约40美元,比行业平均水平高出约26% [12];预期市净率高达29倍,比行业中位数高出约500% [13] - **高估值的合理性**:公司在AI市场占据主导地位(有报告称占据90%的市场),处于互联网以来最大技术革命的中心,其CUDA软件平台已成为行业标准,创造了巨大的转换成本和竞争护城河,这些竞争优势支撑了溢价估值 [13] - **技术迭代推动增长**:芯片性能呈指数级增长(从Hopper到Blackwell,再到预计2026年下半年推出的Rubin),性能飞跃降低了旧型号和替代品的吸引力,形成了升级周期的飞轮效应,使竞争对手持续追赶 [14] - **长期投资视角**:对于五年以上投资视野的长期投资者而言,当前价格水平被认为是合理的,尽管预计近期会因AI支出消息而产生波动 [14] 2026年的潜在增长动力 - **中国市场重新开放**:限制解除后,来自中国科技公司的H200芯片订单超过200万片,单价约2.7万美元,首批约8万片预计于2026年2月中旬出货,有望显著贡献利润 [16] - **Rubin平台发布**:预计2026年下半年推出的Rubin平台是一项重大技术升级,据称与Blackwell相比,能将运行AI模型的成本降低10倍,训练AI模型所需的GPU数量减少4倍 [18] - **客户广泛采用**:微软、Alphabet、亚马逊、甲骨文等超大规模数据中心承诺在2026年下半年部署Rubin;Anthropic、Meta、OpenAI等AI公司也计划利用Rubin训练下一代模型 [18] - **市场扩张潜力**:Rubin带来的效率提升可能遵循杰文斯悖论,即效率提高导致使用量增加,从而显著扩大AI市场,而非减少芯片销量 [19] - **巨大的盈利潜力**:若到2028年Rubin占据高性能芯片市场60%到70%的份额,该平台可能产生1500亿至2000亿美元的毛利润,扣除运营成本后,可能转化为1200亿至1600亿美元的净利润 [19] 2026年的潜在风险 - **行业投资回报缺口**:高盛预测,2026年主要云公司在AI基础设施上的支出将达5270亿美元(较2025年的约4000亿美元显著增加),但这些投资需要产生超1万亿美元的年利润才能证明合理性,而2026年估计利润仅约4500亿美元,存在巨大缺口 [20] - **AI泡沫与估值重估风险**:德意志银行预计OpenAI在2024年至2029年间可能消耗1430亿美元才能盈利,若其2026年下半年上市后财务状况不佳,可能引发整个AI行业估值的广泛重新评估,导致AI股票抛售 [20] - **历史模式警示**:当前巨额投资期望AI应用回报但实际收入滞后的模式,类似于历史上的铁路繁荣、互联网泡沫等,行业可能过度扩张并在价值实现前经历痛苦调整 [21] - **股价下行风险**:若AI泡沫破裂,英伟达估值可能从当前40倍预期市盈率降至低于20倍,叠加盈利增长放缓,股价可能大幅下跌,即使公司运营执行良好 [21]
过去四周,AI推理爆了,GPU在燃烧,英伟达依旧供不应求
硬AI· 2025-04-29 08:18
行业需求与市场动态 - 大型语言模型对推理芯片的需求激增,导致英伟达GPU供不应求,需求遍及所有地区 [3][4] - token生成量自年初以来增长5倍以上,给生态系统带来巨大压力,推动对处理工作负载的投资激增 [4] - AI公司用户数量呈爆炸式增长,例如Open Router等API公司数据显示,GPU资源争夺激烈,甚至出现"最后一块GB200"在2025年仅剩一块的状况 [4] 英伟达的供应与业绩 - 英伟达Blackwell芯片(尤其是GB200/300型号)供应受限,短期内无法满足爆炸式需求 [6] - Hopper GPU需求虽改善,但云客户5-6年折旧周期可能导致投资回报率不理想 [6] - 美元上行、供应紧张和出口限制叠加,引发市场对英伟达短期盈利的担忧 [6] 摩根士丹利的观点与调整 - 摩根士丹利将英伟达目标价从162美元轻微下调至160美元,主要反映同行组整体估值下降,而非公司基本面变化 [3][6] - 下调目标价体现对英伟达短期业绩的谨慎态度,但长期增长潜力依然强劲 [3][8] - 截至发稿,英伟达股价为111美元,较大摩目标价高45%左右 [6] 推理需求的关键性 - 摩根士丹利认为推理需求是关键,由使用模型并产生收入的部分驱动,证明推理模型的扩展是真实存在的 [4] - 推理需求与仅依赖风险投资的训练需求有本质区别 [4]
过去四周,AI推理爆了,GPU在燃烧,英伟达依旧供不应求
华尔街见闻· 2025-04-27 18:38
投资者情绪与需求变化 - 过去四周投资者情绪因宏观经济和供应链风险恶化 但英伟达GPU核心需求因大型语言模型对推理芯片需求飙升且遍及所有地区 [1] - token生成量自年初以来增长5倍以上 给生态系统带来巨大压力并推动处理工作负载的投资激增 [1] - 多家AI公司报告用户数量爆炸式增长 例如Open Router等API公司因推理软件需求被迫争抢GPU资源 [1] 英伟达芯片供需状况 - 英伟达Blackwell芯片供应受限 尤其是GB200/300型号无法满足爆炸式需求 [2] - Hopper GPU需求有所改善 但云客户5-6年折旧周期导致投资回报率不理想 [2] - 美元上行、供应紧张和出口限制叠加 引发市场对英伟达短期盈利担忧 [2] 摩根士丹利对英伟达的评估 - 摩根士丹利将英伟达目标价从162美元下调至160美元 主要反映同行组整体估值下降而非公司基本面变化 [2] - 截止发稿英伟达股价为111美元 较大摩目标价高45%左右 [2] - 摩根士丹利认为供应限制和毛利率压力影响市场情绪 但对长期增长潜力保持信心 [4] 财务预测调整 - 摩根士丹利将2026财年收入预测上调10.7% 每股收益上调11.9% 并认为这些数字可能仍非常保守 [5]
全球首个!“英伟达亲儿子”CoreWeave大规模上线GB200服务器
硬AI· 2025-04-16 17:52
性能提升与行业记录 - 英伟达GB200 NVL72服务器相比前代Hopper GPU在1000亿参数模型训练中实现高达3倍性能提升 [3][8] - GB200 NVL72系统在MLPerf v5.0测试中刷新行业记录 提供前代H100芯片2-3倍性能提升 [3][7][8] - 通过优化大统一内存 FP4精度和72个GPU的NVLink域 Cohere获得显著更高吞吐量并缩短令牌生成时间 [8] 核心合作伙伴与部署进展 - CoreWeave成为首批大规模部署英伟达GB200 NVL72系统的云服务提供商 Cohere IBM和Mistral AI成为首批用户 [3][4] - CoreWeave与OpenAI合作 进一步巩固其作为AI基础设施提供商的领先地位 [5] - 英伟达承诺四年内向CoreWeave支付13亿美元租回自产芯片 双方构建紧密合作关系 [4] 技术优势与市场定位 - GB200 Grace Blackwell超级芯片在AI推理测试中创下新纪录 未优化架构即实现性能突破 [7][8] - CoreWeave强调工程实力和执行速度 多次成为首批运营最先进系统的公司 [4] - 在AI算力紧缺背景下 能提供最先进芯片组的云服务商占据市场竞争优势 [5]
【招商电子】英伟达GTC 2025跟踪报告:2028年全球万亿美金Capex可期,关注CPO、正交背板等新技术趋势
招商电子· 2025-03-20 10:51
数据中心与AI基础设施 - 预计2028年数据中心资本开支将达1万亿美元,主要用于加速计算芯片[1][2] - 2024年向四大云服务商交付130万颗Hopper GPU,2025年计划出货360万颗Blackwell GPU[2] - AI基础设施计算量较去年预计增长100倍,Tokens数量大幅增加[2][9][10] - 数据中心正在向"人工智能工厂"转型,专注于AI驱动的处理和应用[13] Blackwell平台与未来产品 - Blackwell已全面投产,NVL72结合Dynamo推理性能提升40倍[3] - 计划25H2发布Blackwell Ultra,算力提升50%,FP8精度算力达0.36EF[3] - 预计26H2推出Vera Rubin NVL144,推理能力达每秒50千万亿次浮点运算[3] - 预计27H2推出Rubin Ultra NVL576,FP4精度算力达15EF,性能较GB300提升14倍[3] - 预计2028年推出Feynman平台,迎接千兆瓦AI工厂时代[3] CPO交换机技术 - 预计25H2推出Quantum-X CPO交换机,交换容量115.2Tb/s,能耗降低3.5倍[5] - 预计26H2推出Spectrum-X CPO交换机,包含两种型号,最高背板带宽409.6TB/S[5] - 采用MRM micro mirror技术,可将连续激光束转化为二进制信号[5] - CPO技术可帮助数据中心节省60MW电力,相当于100个Rubin机柜耗电量[5] 自动驾驶与机器人技术 - 推出Halos系统保障汽车安全,已评估700万行代码并申请1000多项专利[25][26] - 借助Omniverse和Cosmos加速自动驾驶开发,实现端到端训练[26] - 推出开源通用基础模型Isaac Groot N1,具有快慢双系统架构[6][61] - 预计到2030年全球将短缺5000万名工人,机器人产业潜力巨大[60] AI技术演进与应用 - AI分为三个层次:生成式AI、智能体AI和物理AI[7] - 推理模型带来100倍Tokens增长,计算速度需提升10倍[9][10][11] - 推出Dynamo操作系统,Blackwell性能是Hopper的40倍[35][38] - CUDA-X行业框架覆盖计算光刻、5G、基因测序等多个领域[14][15] 产品路线图与技术突破 - 每年更新路线图,每两年更新架构,持续推出新产品[53] - 采用液冷技术,单个机架功率达120千瓦,含60万个部件[29][30] - 光子学技术突破,硅光子交换机可扩展到数百万GPU规模[47][48] - 与台积电合作采用3D共封装技术,实现高性能光子集成电路[49]
台积电CoWoS“砍单”疑云?摩根大通:确实砍了但别慌,AI需求依旧坚挺
硬AI· 2025-03-03 22:37
核心观点 - 台积电CoWoS订单削减并非需求萎缩,而是客户过度乐观预期回归理性调整 [2][3] - 2025年CoWoS产能仍将供不应求,英伟达Blackwell芯片出货量有望达600万片 [1][2][7] - AI芯片整体需求趋势好于预期,B200/B300系列及ASIC项目需求强劲 [5][7][8] 订单调整原因 - 英伟达、Marvell、亚马逊等客户下调2025年CoWoS订单预期8-10%,英伟达产能预期下调4-4.5万晶圆 [1][3] - 调整源于客户初期过度预订,台积电要求更准确预测促使修正 [3] - 产品变更(英伟达多款产品)及订单优先级变化(台积电优先CoWoS-L)导致供应链预期调整 [4] 产能供需分析 - 供应链曾激进预期2025年底台积电CoWoS月产能8.5-9万晶圆(全年超80万),摩根大通预期更现实(年底月产能7.5万,全年72.5万) [4] - 即使台积电产能扩张超2倍,2025年仍供不应求 [6] - 英伟达2025年CoWoS-L晶圆需求39万片(实际产出或更低),可生产600万片Blackwell芯片 [7] 需求端表现 - 英伟达B200/B300、H200s/H20需求强劲,亚马逊Trainium 2等ASIC项目进展顺利 [5][8] - 前端晶圆订单(N4/N5)及HBM需求2025年全年保持强劲 [6] - 亚马逊Trainium 2预计2025年需求超150万片,成AI ASIC主要增长点 [8] 长期展望 - 预计2026年英伟达CoWoS晶圆需求增长20%,可生产750万片Blackwell和Rubin芯片 [7]