Workflow
XPU
icon
搜索文档
未知机构:TDCowen对博通Broadcom高管交流会核心洞察总结-20260127
未知机构· 2026-01-27 10:05
涉及的行业与公司 * 行业:半导体行业,具体涉及人工智能(AI)加速器、数据中心网络、先进封装[1] * 公司:博通(Broadcom)[1] 核心观点与论据 * **AI需求与订单持续强劲增长** * 公司AI订单储备额高达730亿美元,且自披露后仍在持续增长(未包含OpenAI相关订单)[1] * 管理层对2027-2029年落地的10GW合作协议充满信心[1] * 认为客户自主造芯可能性极低,因定制化XPU为双方联合研发、深度绑定IP,客户转向自研将导致“两败俱伤”[1] * **网络业务是重要且被低估的增长引擎** * 网络业务需求同样高速增长,商用模式发展向好[2] * 在800G/1.6T以太网、PCIe交换机等核心领域占据领先地位,Tomahawk系列产品势头强劲[2] * 网络业务在公司AI订单储备中的占比约为30%-35%,其价值被市场低估[2] * 高毛利的网络业务可有效抵消定制化XPU业务占比提升对整体毛利率的拖累[2] * 若网络业务营收增速持续达标,其营收占比可能超过市场预期[2] * **定制化AI加速器是差异化竞争核心** * 公司将定制化AI加速器的目标客户锁定为自研大模型/超智能的企业[2] * 定制化产品能更好优化推理环节的软硬件结合,提升客户的投资回报率(ROI)和总拥有成本(TCO)[2] * 公司已凭借性能优势在定制化芯片领域建立领先地位[2] * 部分定制项目的最终出货量仍存在不确定性[2] * **供应链保障充足,积极布局未来产能** * 管理层对台积电的前端制造产能和存储芯片供应无担忧[3] * 公司作为台积电顶级客户,可依托与终端客户的直接合作明确需求、锁定充足产能[3] * 新加坡新厂将聚焦基板、中介层及先进封装业务,旨在缓解CoWoS产能瓶颈[3] * 预计2028年推出相关产品,后续技术细节将逐步披露[3] 其他重要内容 * **网络业务是AI集群建设的核心环节**[2] * **定制化XPU业务及机架级解决方案的推出会对公司整体毛利率形成一定拖累**[2]
台积电,别无选择
半导体行业观察· 2026-01-17 10:57
公司核心财务与运营表现 - 2025年公司营收创下新纪录,达到1224.2亿美元,同比增长35.9% [3] - 2025年公司净利润为551.8亿美元,同比增长51.3%,占总营收的45.1% [3] - 2025年第四季度营收为337.3亿美元,环比增长1.9%,同比增长25.5% [8] - 2025年第四季度净利润为163.1亿美元,同比增长40.7%,环比增长8% [8] - 2025年公司投入了409亿美元的资本支出,用于满足未来芯片蚀刻和封装的需求 [3] - 公司预计2026年至2030年期间可能需要投入高达2500亿美元的资本支出 [11] - 过去三年公司资本支出总额为1010亿美元,预计未来三年将大幅增长 [11] - 公司2025年每股收益为45.1美分,2024年为40.5美分,市场预期其2026年能实现每股收益50美分的目标 [14] 人工智能业务驱动与预测 - 2025年,人工智能加速器的销售额将占总收入的“接近百分之十几”,估算为19.2%,对应收入为235.1亿美元 [16] - 2025年公司整体人工智能相关收入估算约为334亿美元,占总收入的27.3% [16] - 2024年公司人工智能收入为131.3亿美元,占总收入的14.6%,这意味着2025年人工智能收入增长了约3.54倍 [16] - 公司预测2024年至2029年,“AI加速器”业务的复合年增长率将达到50%中高段位,取中值57.5%计算 [17] - 基于57.5%的复合年增长率,公司预计到2029年,AI加速器业务的营收将达到985亿美元 [17] - 加上AI网络芯片,未来五年AI业务的营收很可能超过公司2025年的全部营收 [17] - 在短时间内,公司对2029年人工智能产品销售额的预测已经翻了一番还多 [17] 技术演进与成本挑战 - 每推出一个新的制程节点,成本都会不断攀升,N2(2纳米)工艺的千片成本远高于N3(3纳米)工艺 [4] - N2与1.4纳米A14工艺之间的成本差距将会更大 [4] - 目前亚利桑那州及台湾以外其他地区的晶圆厂扩建已使毛利率下降了2%至3% [4] - 随着更先进工艺的投产,毛利率的下降幅度将进一步扩大至3%至4% [4] - N3工艺的毛利率预计将于2026年某个时候达到公司平均水平,但N2工艺将在2026年下半年开始量产,届时也将开始稀释利润 [8] - 公司历经五年,投入1670亿美元资本支出和300亿美元研发资金,才得以从2020年底的5纳米制程发展到2025年底即将迈入2纳米时代 [9] 市场竞争与定价策略 - 公司在高端工艺和封装领域几乎没有真正的竞争对手,这使其享有较高的盈利水平 [12] - 如果三星或英特尔等公司在先进工艺领域构成竞争,且需求没有超过供应,公司将面临价格压力 [12] - 目前需求似乎大于供应 [12] - 公司擅长从其代表客户蚀刻的每片晶圆中榨取更多利润,因为客户需要性能更高、功耗更低的器件,并愿意为此支付更多费用 [6] - 公司表示定价策略将保持战略性,而非投机取巧,以此来创造价值 [11] - 公司将与供应商密切合作以降低成本,并提高晶圆产量和产能优化来提升盈利能力 [11] 管理层观点与行业展望 - 公司首席执行官对人工智能需求的真实性进行了广泛调研,与云服务提供商及其最终客户沟通,并对其业务增长和财务健康状况感到满意 [3] - 首席执行官承认对高达520亿到560亿美元的资本支出计划感到紧张,认为如果处理不当对公司将是巨大灾难 [3] - 从晶体管价格不再下降的角度来看,摩尔定律已经失效,但这不意味着技术进步不重要,消费者仍会为更复杂的工程技术支付更多费用 [8] - 为了推动未来营收增长,公司必须加大投入,并且每次创新都要收取高于以往水平的费用,这些成本最终将由芯片设计商承担并转嫁给终端用户 [9] - 人工智能已经变成了一种高性能计算,其信条是不惜一切代价追求性能,这与云计算或大型企业的成本优化策略截然不同 [6]
OpenAI,“买”了一堆芯片
半导体行业观察· 2026-01-17 10:57
文章核心观点 - OpenAI正在积极推行其历史上最激进的扩张计划,并与多家芯片制造商达成巨额交易,以实现其人工智能处理能力的多元化,减少对单一供应商英伟达的依赖 [1] OpenAI的芯片合作战略 - OpenAI已向包括英伟达、AMD以及博通在内的多家公司承诺了超过1.4万亿美元的基础设施建设交易 [1] - 为了满足市场对其人工智能技术的预期需求,OpenAI已向市场发出信号:它需要尽可能多的处理能力 [1] 与英伟达的合作 - 早在ChatGPT发布之前,OpenAI就一直依赖于英伟达的图形处理单元 [3] - 2025年9月,英伟达宣布将投入1000亿美元支持OpenAI构建和部署至少10吉瓦的英伟达系统,这相当于400万到500万个GPU [3] - 该项目的第一阶段预计将于2026年下半年在英伟达的Vera Rubin平台上上线,但英伟达在11月的财报电话会议上表示“无法保证”合作协议能从宣布阶段发展到正式合同阶段 [3] - 英伟达的首笔100亿美元投资将在第一个千兆瓦项目完成后,按当时的估值进行 [3] 与AMD的合作 - 2025年10月,OpenAI宣布计划在未来几年和多代硬件上部署6吉瓦的AMD GPU [5] - 作为交易的一部分,AMD向OpenAI授予了一份认股权证,可获得至多1.6亿股AMD普通股,约占该公司10%的股份 [5] - 两家公司计划在2026年下半年推出首批1千兆瓦芯片,交易价值数十亿美元 [5] 与博通的合作 - OpenAI与博通公司公开宣布了一项酝酿了一年多的合作计划,同意部署10吉瓦的定制AI加速器 [7] - 博通将其定制人工智能芯片称为XPU,其潜在交易储备使得博通的市值超过1.6万亿美元 [7] - 博通的目标是在2026年下半年开始部署AI加速器和网络系统的机架,目标是在2029年底前完成该项目 [7] - 博通首席执行官预计2026年与OpenAI的合作不会带来太多收入,并称这是一项将持续到2029年的多年计划 [7] 与Cerebras的合作 - 2026年1月,OpenAI宣布与Cerebras达成一项协议,将部署750兆瓦的Cerebras AI芯片,这些芯片将在2028年前分批上线 [8] - 该交易价值超过100亿美元,Cerebras生产的大型晶圆级芯片的响应速度比基于GPU的系统快15倍 [8] - Cerebras在2025年10月宣布完成超过10亿美元的融资后几天,便撤回了首次公开募股计划,该公司严重依赖其在阿联酋的单一客户G42 [8] 与其他潜在合作伙伴的动态 - 2025年11月,OpenAI与亚马逊网络服务公司签署了一项价值380亿美元的云服务协议,亚马逊也在洽谈可能向OpenAI投资超过100亿美元 [10] - OpenAI可能会决定在投资洽谈中使用亚马逊的AI芯片,但目前尚未有任何官方决定 [10] - Google Cloud和博通去年悄然达成一项协议,为OpenAI提供计算能力,但OpenAI表示没有计划使用谷歌自主研发的张量处理单元芯片 [10] - 英特尔在2025年10月发布了一款代号为“新月岛”的新型数据中心GPU,预计将于2026年下半年向客户提供样品 [12] - 路透社2024年援引知情人士的话报道称,英特尔本有机会在几年前就投资OpenAI,并有可能为其生产硬件,但最终决定放弃这笔交易 [11][12]
人工智能将消耗全球50%芯片
半导体行业观察· 2026-01-14 09:38
全球半导体市场整体趋势 - 根据Gartner数据,2025年全球半导体销售额预计达到7934亿美元,同比增长21% [1] - 预计到2029年,全球芯片销售额将达到1.2万亿美元,几乎是2024年销售额的两倍 [9] - 从2025年到2029年,整体芯片销售增长率预计将从21%放缓至8% [9] AI相关芯片的增长与份额 - 2025年,AI XPU(包括GPU)、HBM内存及AI网络芯片的销售额合计将占全球芯片总销售额的近三分之一,估算为31.5%,约2500亿美元 [1] - 预计到2029年,AI半导体将占芯片总收入的50%以上 [2] - 2025年,AI“处理器”销售额预计将超过2000亿美元,HBM收入将超过300亿美元,占全球DRAM总销售额的23% [2] 主要半导体厂商表现分析 - 英伟达在2024年成为芯片销售收入领头羊,2025年营收预计增长63.9%,达到1257亿美元,占全球芯片销售额的15.8% [4] - 英伟达的崛起速度远超英特尔的衰落速度,英特尔2025年销售额预计为479亿美元,市场份额降至6.0% [4][6] - 三星2025年销售额预计为725亿美元,市场份额9.1%;SK海力士预计为606亿美元,市场份额7.6%;美光预计为415亿美元,市场份额5.2% [3] - 博通和AMD稳步增长,2025年销售额预计分别为343亿美元和325亿美元,各自以不同方式受益于AI [6] AI芯片细分市场预测 - 在2025年至2029年间,AI XPU(包括GPU)的销售额预计增长2.3倍,达到4650亿美元 [13] - 同期,用于AI系统的HBM内存销售额预计增长4.1倍,达到1240亿美元 [13] - AI网络组件的销售额预计增长1.8倍,达到310亿美元 [13] 市场驱动因素与结构变化 - 剔除英伟达的收入后,全球芯片市场依然保持强劲增长,主要由HBM内存、高端CPU及网络芯片销售驱动 [9] - 超大规模数据中心和云构建商自研CPU和XPU,这部分“收入”流已占CPU“收入”的近一半,且到本十年末AI XPU收入也可能达到同等水平 [7] - 在分布式AI系统中,带宽和内存容量对性能的驱动作用可能超过原始计算能力,因此HBM内存和网络芯片在AI领域的份额预计将略有增加 [11]
Micron's Pricing Power Looks Unstoppable As AI Demand Outruns Supply
Benzinga· 2026-01-09 03:28
核心观点 - 美光科技正受益于人工智能驱动的内存供应紧张 摩根大通认为DRAM尤其是HBM的需求将持续超过供应至2026年以后 这将支撑价格坚挺并强化其对该股的看涨立场 [1] 行业需求与供应动态 - 管理层对DRAM和NAND的需求持乐观态度 客户正在上调内存和存储需求 [2] - 近期GPU和XPU趋势支持这一观点 英伟达表示其价值超过5000亿美元的Rubin和Blackwell订单将持续增加至2026年底 博通的TPU出货量持续上升 摩根大通也因此上调了CoWoS产能预测 [3] - 尽管公司因缺乏可用的洁净室空间而限制其供应增长以满足增量客户需求 但节点转换、生产效率提升和良率加速爬坡应共同推动DRAM和NAND的比特出货量在2026年至少增长20% [4] - 这仍无法完全满足需求增长 摩根大通预计需求年增长率将超过30% 但这相比90天前的供应增长预期已有所改善 [5] 价格前景与产能限制 - 预计DRAM/HBM需求在2026年后将持续超过供应 即使有新产能上线 这将支撑价格进一步走强 [6] - 管理层重申公司仅能满足关键客户中期比特需求的50%至三分之二 并补充说即使新的洁净室产能于2027年开始上线 需求仍可能持续超过供应 [6] - 公司已将其爱达荷州1号工厂的首片晶圆产出时间提前约一个季度至2027年中 但管理层预计由于物理限制而非资本约束 该新产能的爬坡将是渐进的 [7] - 美光预计竞争对手在2027年末和2028年上线新产能时也将面临类似的渐进爬坡动态 而需求将持续增长 [7] - 摩根大通预计这种供需紧张至少将支撑价格强势至2026年 并预测2026年DRAM平均价格同比上涨近60% [8] 新兴AI工作负载与NAND需求 - 美光将上下文窗口内存管理视为NAND快速增长的需动因素 [9] - 管理层认为英伟达在CES上发布的新推理上下文窗口存储平台并不意外 因为超大规模企业和其他拥有内部AI XPU基础设施的公司已经部署或正在开发KV缓存管理系统 以管理快速增长的上下文窗口并从HBM和系统内存中卸载 [9] - 这一趋势可能为NAND比特需求增长开辟新赛道 基于英伟达Bluefield-4的系统的搭载率可能很高 [10] - 美光预计KV缓存卸载工作不会影响客户未来几年的HBM路线图 [10] 物理AI与机器人驱动的长期需求 - 美光预计物理AI 尤其是机器人 将成为内存的“巨大”需求驱动力 紧随生成式AI之后 未来可能占行业总需求的很大一部分 [11] - 管理层描述客户计划的规模“令人难以置信” 并指出了隐含的内存需求 例如一个领先的人形机器人使用高达64–128GB的DRAM和1–2TB的NAND 且这两个数字未来可能上升 [12] - 将此规模扩展到数百万台设备 将意味着显著的增量DRAM和NAND需求 [12]
摩根大通美光调研:新厂提前投产也只能满足一半需求,上下文窗口存储成NAND新增长点
华尔街见闻· 2026-01-08 21:07
核心观点 - 美光科技高管及摩根大通分析认为,DRAM和HBM的供需紧张状况将持续至2026年之后,新产能爬坡缓慢无法跟上强劲需求增长,这将为存储器价格提供持续支撑 [1][2][3] 供需状况与价格展望 - 美光目前仅能满足关键客户中期需求的50%至三分之二 [1] - 即使爱达荷州Idaho 1晶圆厂提前至2027年中期量产,产能爬坡也是渐进式的,受物理条件制约 [1][2] - 竞争对手的新建产能要到2027年底和2028年才能陆续投产,同样面临产能爬坡限制 [1][2] - 摩根大通预测2026年DRAM平均价格将同比上涨近60% [1][3] - 供应紧张状况预计将延续至2026年之后,支撑价格进一步走强 [1][3] 需求驱动因素 - AI应用需求全面爆发,客户持续上调存储需求 [3] - 英伟达Rubin和Blackwell产品积压订单规模超过5000亿美元(覆盖至2026年底),且订单持续增加 [3] - 博通的TPU出货量不断攀升,摩根大通因此上调了CoWoS产能预测 [3] - 摩根大通预计存储器需求增速将达到30%以上,而美光预计2026年DRAM和NAND的位元出货量增长至少20%,仍无法追上需求增长 [2] - 具身智能(尤其是机器人)预计将成为存储器的“巨大”需求驱动力 [5][6] - 一台领先的人形机器人使用高达64-128GB的DRAM和1-2TB的NAND,按数百万台规模计算将带来显著的增量需求 [6] 技术发展与新增长点 - 英伟达在CES上宣布的新型推理上下文窗口存储平台,以及其他厂商开发的KV缓存管理系统,将为NAND位元需求增长开辟新通道 [4] - 美光预计基于Bluefield-4的系统配置率可能会很高,但KV缓存卸载工作不会影响客户未来几年的HBM路线图 [4]
Broadcom's Semiconductor Growth Picks Up: A Sign of More Upside?
ZACKS· 2025-12-25 01:05
博通公司AI业务强劲增长 - 公司半导体收入受益于用于训练生成式AI模型的专用集成电路XPU的强劲需求 在2025财年第四季度 AI收入同比增长74%至65亿美元[1] - 2025财年第四季度 XPU采用加速 因企业持续使用其训练大语言模型并通过推理API和应用程序实现平台货币化 Alphabet和Meta Platforms是主要用户[1] - 公司客户群扩大 现已包括Anthropic 推动了增长 在2025财年第三季度 公司获得一笔100亿美元的订单 向Anthropic出售Alphabet最新的TPU Ironwood机架 在2025财年第四季度 又从同一客户获得一笔价值110亿美元的额外订单[2] - 公司当前AI交换机的订单积压超过100亿美元 因其最新的每秒102太比特的Tomahawk 6交换机持续获得市场青睐[2] - 公司预计2026财年第一季度AI收入将同比增长一倍 达到82亿美元[2] 博通公司网络与半导体业务展望 - 公司网络产品组合从Tomahawk 6产品以及Jericho 4以太网结构路由器的强劲需求中获益[3] - 公司拥有丰富的合作伙伴基础 包括OpenAI、Walmart、NVIDIA、Canonical、Arista Networks、Alphabet、Dell Technologies、Meta Platform、Juniper和Supermicro等[3] - 公司预计2026财年第一季度半导体收入为123亿美元 意味着同比增长50%[3] - 公司预计2026财年第一季度基础设施软件收入将同比增长2%至68亿美元[3] 半导体市场竞争格局 - 博通是半导体市场的主要参与者 但正面临来自英伟达和Marvell Technology的激烈竞争[4] - 英伟达受益于AI和高性能加速计算的强劲增长 对使用基于其Hopper和Blackwell架构的GPU的生成式AI和大语言模型的需求增长 推动了数据中心收入 在2026财年第三季度 数据中心收入(占英伟达收入的89.8%)同比增长66% 环比增长25% 达到512.2亿美元[5] - Marvell Technology受益于数据中心终端市场的强劲需求环境 在2026财年第三季度 其数据中心终端市场收入同比增长39% 受AI驱动的定制XPU硅片和光电互连产品需求强劲增长的推动[6] - Marvell Technology的AI驱动定制硅业务已获得超过20个多代XPU和XPU附加插槽的订单 其设计管道已扩展到超过50个机会 价值750亿美元 凸显了超大规模企业对Marvell差异化能力日益增长的依赖[6] 公司股价表现与估值 - 博通股价在一年内上涨了45.7% 表现优于Zacks计算机和技术板块21.6%的回报率[7][8] - 该股交易存在溢价 其未来12个月市盈率为33.89倍 而整个板块为27.78倍 公司价值评分为D[11][12] - 市场对博通2026财年每股收益的共识预期为9.69美元 过去30天内上调了5.7% 意味着较2025财年报告数据增长42.1%[14]
深圳理工大学唐志敏:异构计算已成必然,软件决定芯片胜负丨GAIR 2025
雷峰网· 2025-12-24 11:19
算力概念的演进与重新定义 - “算力”是中国创造的概念,其本质是在可接受的资源与时间内完成计算任务的能力 [7][8] - 有观点提出用“Computility”一词替代“Computing Power”,以强调算力应像水电一样成为基础设施 [7] - 在传统算力基础上,衍生出“训力”(快速训练大模型)和“推力”(基于大模型快速推理)等新概念 [9][10] - 算力体系的演进可能催生多模态生成能力,例如未来或将小说直接“演”成电视剧 [10] 算力需求增长与异构计算的必然性 - 生成式AI对算力的需求持续快速增长,其增速远超制程工艺带来的性能提升 [12] - 仅靠CPU已无法满足需求,CPU主频与架构在过去二十多年未发生本质变化 [16] - 行业必然选择CPU+XPU(如GPGPU)的异构计算架构,以在通用性、性能、能耗和成本间寻求平衡 [16] XPU的本质与软件生态的核心地位 - XPU属于保守型硬件结构,仅提供计算资源,性能能否发挥取决于软件、编译器与程序员 [18][19] - 算力芯片的核心问题并非硬件架构,而是应用生态,生态包括操作系统、编译器、应用软件等所有软件的总和 [20][24] - 真正产生生产力的是应用软件而非芯片本身,成熟的软件体系对释放硬件性能至关重要 [24] - 硬件峰值性能只是指标,真实应用软件通常仅能发挥整机20%~30%的效率,优化空间巨大 [38] CPU生态格局:x86、Arm与RISC-V的挑战 - x86生态经过四五十年发展,拥有极高的市场占有率和生态惯性 [24] - 根据Gartner数据,基于x86软件的销售收入达3000多亿美元,而其年研发费用约600亿美元,远超全球服务器市场约800亿美元的总收入 [24] - Arm架构在服务器领域屡战屡败,其成功需要两个条件:掌握全栈技术的大公司弃用x86,以及端云融合促进应用迁移 [27] - RISC-V面临商业化困难,例如行业顶级人物Jim Keller创办的Tenstorrent公司已开始裁员,其芯片面临“不知卖给谁”的困境 [29] - RISC-V目前仅在软件简单的嵌入式场景(如存储控制器)应用较好,一旦进入计算领域则面临软硬件生态不成熟的多重问题 [29] - RISC-V在多核CPU所需的片上互联网络等硬件生态上尚不成熟,可能仍需依赖Arm的解决方案 [29] CUDA生态的壁垒与国产化必要性 - 硬件指令的直接支持对性能和能效始终有价值,Intel不断加入新指令即是例证 [32] - 兼容CUDA的API接口从技术角度看并不难,但复制其背后的完整软件生态(包括算力库、函数库、开发工具等)则极其困难 [32] - 国家层面已意识到生态建设的重要性,正在推动打造自主算力生态,以避免长期受制于人 [33] 芯片成功的核心:软件生态与差异化价值 - 在半导体发展放慢、中国面临制程限制的背景下,需通过跨学科交叉在系统、软件和算法层面寻求性能突破 [35] - 通过软件、编译和系统层面的优化,完全有可能在峰值性能较低的芯片上获得不错的应用效果 [44] - 实现AIGC生成影视内容等愿景,不仅需要GPGPU的计算能力,也需要GPU基础的图形渲染能力 [44] - 系统与平台厂商自研芯片能否成功,关键在于能否为产品和服务提供足够大的增值,以及能否掌控全栈软件体系 [44] - 苹果基于Arm自研芯片的成功,关键在于通过自研高性能芯片与自有软件体系结合,打造领先体验并实现产品高溢价 [45] - 架构创新不一定需要新指令系统,在现有指令体系(如RISC-V)下完全可以进行创新 [45] - 平台或系统厂商自研芯片必须有清晰的、能为系统或服务带来显著增值的差异化,否则使用成熟商用芯片是更理性的选择 [46] RISC-V的未来潜力与行业愿景 - RISC-V具备一定的包容性,有机会融合CPU、GPU和AI处理器的特性 [1] - 行业希望将RISC-V作为统一的指令系统方向,让各类处理器尽量统一到同一架构平台,以减少重复投入 [46] - 未来计算架构可能从当前的CPU+XPU异构体系,回归到以CPU为中心的新一体化架构 [47] - RISC-V有机会吸收开源体系的力量,逐步突破CUDA的生态壁垒 [47]
“惊魂暴跌”后迎反击?瑞银力挺博通(AVGO.US):2026财年AI收入或超600亿,回调属过度反应
美股IPO· 2025-12-17 07:06
文章核心观点 - 瑞银认为市场对博通财报后的股价暴跌反应过度 公司AI半导体业务前景强劲 管理层对2026财年收入预期充满信心 基于此 瑞银上调了业绩预期和目标价 [1][3][6] 财报后市场反应与管理层沟通 - 博通与甲骨文发布财报后股价大幅波动 博通两日内下跌17% [1] - 瑞银与管理层举行会议后 认为市场反应过度 该股已成为市场普遍看好的多头标的 [1][3] - 管理层明确表示 财报电话会中披露的AI业务订单积压数据(730亿美元 覆盖周期18个月)极为保守 实际交付周期将接近12个月 [4] AI业务订单积压与客户构成 - 第四财季(截至10月)公司总订单积压环比增长50% 其中AI半导体业务订单积压翻倍 [4] - 若剔除Anthropic新增的110亿美元订单 剩余订单积压仍增加200-250亿美元 主要来自谷歌和Meta 暂未包含OpenAI的订单 [4] - 向Anthropic交付的210亿美元机架订单可能因电源组件准备进度延至2027财年 [4] - Anthropic是订单积压中唯一的机架类客户 OpenAI(一旦纳入)将成为传统ASIC客户 [4] - 企业级订单积压从1100亿美元增至1620亿美元 增幅超50% 其中AI相关订单积压环比翻倍 [9] 财务预期与业务展望 - 瑞银预计博通2026财年AI半导体收入将超600亿美元 同比增长近3倍 [1] - 管理层信心表示 2026财年AI业务收入将超出当前市场预期 且将高于其所见的任何买方或卖方机构的预测值 [6] - 瑞银上调2027财年营收预期至1350亿美元(高于市场共识2%) 上调每股收益预期至14.15美元(高于市场共识1.7%) 并将目标价从472美元上调至475美元 [6] - 博通重申 2026财年AI业务收入的增速将超过2025财年 [8] 各业务线毛利率与收入预测 - 公司未明确Anthropic的210亿美元机架订单毛利率 但未反驳45%-50%的市场预期 [4] - 重申XPU业务毛利率约55% AI网络业务毛利率约80% [5] - AI机架中的博通自有组件综合毛利率约60% 但因包含转售组件 该210亿美元收入的整体毛利率将降至45%-50%区间 [5] - 博通预计AI收入综合毛利率在60%以上 但因包含转售组件 机架产品的发货毛利率会更低 [8] - 受Anthropic订单影响 2026财年毛利率将同比下滑 但营业利润率将至少与上年持平(瑞银预测2026财年营业利润率较2025财年下滑30个基点) [4][8] - 2025财年AI交换机业务收入为30亿美元 但订单数据显示2026财年可能达到120亿美元 [8] - 除交换机外 博通预计DSP业务收入将从2025财年的10亿美元增长至2026财年的50亿美元 [8] - 瑞银将2026财年AI网络业务的同比增速 从之前预估的55%调整为103% [8] 行业趋势与竞争格局 - 博通一年前预计2027年XPU+网络业务的目标市场规模约600-900亿美元(主要基于训练负载) 如今表示该数据已失效 实际规模将显著扩大 [6] - 一方面XPU业务受益于AI推理需求的加速增长 另一方面由于AI技术栈的复杂性和创新速度 AI大模型实验室正抢占博通原本预期的企业级市场(原计划采用GPU) [6] - 越来越多企业选择使用OpenAI、Anthropic等厂商的服务 而非自行微调大模型 [6][10] - 博通回应了“谷歌直接对接代工厂”的担忧 称未来5年内这种情况不太可能发生 但长期策略是拓展多元客户以分散风险 [10] - 博通对定制芯片的变现形式持开放态度 若客户有需求 不排除推出类似特许权使用费的模式 在此模式下芯片平均售价中与博通IP相关的部分会减少 但整体毛利率/营业利润率会更高 [10]
“惊魂暴跌”后迎反击?瑞银力挺博通:2026财年AI收入或超600亿,回调属过度反应
智通财经· 2025-12-16 17:27
文章核心观点 - 瑞银认为市场对博通财报的反应过度,基于管理层对AI业务前景的积极指引,该行上调了业绩预期和目标价,并认为股价回调后该股成为普遍看好的多头标的 [1] AI半导体业务收入预期 - 预计2026财年AI半导体业务收入将超过600亿美元,同比增长近3倍 [1] - 管理层对2026财年AI业务收入超出当前市场预期充满信心,并表示将高于任何买方或卖方机构的预测值 [3] - 博通重申,2026财年AI业务收入的增速将超过2025财年 [4] AI业务订单积压与交付周期 - AI业务订单积压达730亿美元,覆盖周期18个月,但管理层表示实际交付周期将接近12个月 [2] - 第四财季总订单积压环比增长50%,其中AI半导体业务订单积压翻倍 [2] - 若剔除Anthropic新增的110亿美元订单,剩余订单积压仍增加200-250亿美元,主要来自谷歌和Meta,暂未包含OpenAI的订单 [2] Anthropic机架订单详情 - Anthropic的210亿美元机架订单可能因电源组件准备进度而延至2027财年交付,但客户希望2026财年交付 [2][4] - 瑞银当前建模为2026财年交付150亿美元,剩余60亿美元在2027财年交付 [4] - Anthropic是订单积压中唯一的机架类客户,OpenAI(一旦纳入)将成为传统ASIC客户 [2] - 该机架订单因包含转售组件,整体毛利率预计在45%-50%区间,低于博通自有组件约60%的综合毛利率 [2][3] - 该订单被视为一次性合作,长期关系预计将转向标准ASIC/XPU供应模式 [3] 毛利率与营业利润率展望 - 公司未反驳市场对Anthropic机架订单45%-50%毛利率的预期 [2] - 受此影响,2026财年毛利率预计同比下滑,但营业利润率将至少与上年持平(瑞银预测下滑30个基点) [2] - AI业务综合毛利率接近60%,其中XPU业务毛利率约55%,AI网络业务毛利率约80% [3][4] - 2026财年毛利率最终取决于新增AI订单的结构 [4] AI网络与XPU业务增长 - 2025财年AI交换机业务收入为30亿美元,但订单数据显示2026财年可能达到120亿美元 [4] - DSP业务收入预计从2025财年的10亿美元增长至2026财年的50亿美元 [5] - 瑞银将2026财年AI网络业务的同比增速预估从55%上调至103% [5] - 博通认为XPU业务的增速不会超过AI网络业务 [4] - AI网络业务势头强劲,由AI扩展需求驱动的规模化扩张及早期以太网扩容需求带动 [4] 目标市场规模与市场趋势 - 一年前预计2027年XPU+网络业务目标市场规模为600-900亿美元,如今该数据已失效,实际规模将显著扩大 [3] - 一方面XPU业务受益于AI推理需求的加速增长,另一方面AI大模型实验室正抢占博通原本预期的企业级市场 [3] - 出现“AI实验室抢占更多市场”的趋势,原计划采用GPU的企业级市场正逐渐转向使用OpenAI、Anthropic等服务 [5] - 越来越多的企业客户选择使用AI实验室的服务,而非自行微调大语言模型,因为将AI技术栈投入生产的流程较为复杂 [5] 企业级订单与客户集中度 - 企业级订单积压从1100亿美元增至1620亿美元,增幅超50% [5] - 博通回应“谷歌直接对接代工厂”的担忧,称未来5年内不太可能发生,但长期策略是拓展多元客户以分散风险 [5] 财务预期与目标价调整 - 瑞银上调2027财年营收预期至1350亿美元(高于市场共识2%),上调每股收益预期至14.15美元(高于市场共识1.7%) [3] - 将目标价从472美元上调至475美元 [1][3] 定制芯片变现模式 - 博通对定制芯片的变现形式持开放态度,不排除推出类似特许权使用费的模式 [6] - 在此模式下,芯片平均售价中与博通IP相关的部分会减少,但整体毛利率/营业利润率会更高 [6] - 公司在HBM业务中已实现对完整XPU解决方案的掌控,但会根据客户需求灵活调整 [6]