Broadcom(AVGO) - 2026 Q1 - Earnings Call Transcript
博通博通(US:AVGO)2026-03-05 07:02

财务数据和关键指标变化 - 2026财年第一季度总营收达到创纪录的193亿美元 同比增长29% 超出预期 [5] - 第一季度调整后EBITDA达到创纪录的131亿美元 占营收的68% 高于67%的指引 [5][14] - 第一季度运营收入为128亿美元 同比增长31% 运营利润率同比提升50个基点至66.4% [14] - 第一季度毛利率为77% 半导体解决方案部门毛利率同比提升30个基点至约68% 基础设施软件部门毛利率为93% [14][15] - 第一季度自由现金流为80亿美元 占营收的41% 资本支出为2.5亿美元 [16] - 第一季度末库存为30亿美元 库存天数为68天 高于第四季度的58天 为支持AI半导体增长做准备 [16] - 第一季度向股东支付了31亿美元现金股息 并回购了78亿美元(约2300万股)普通股 合计向股东回报109亿美元 [16] - 公司董事会已授权额外100亿美元用于股票回购计划 有效期至2026年底 [17] - 对2026财年第二季度的指引:总营收约220亿美元 同比增长47% 调整后EBITDA利润率预计约为68% [5][13][17] - 预计第二季度非GAAP摊薄后股数约为49.4亿股 非GAAP税率约为16.5% [17][18] 各条业务线数据和关键指标变化 - 半导体解决方案部门:第一季度营收创纪录,达125亿美元,同比增长52% [5][14] - AI半导体营收为84亿美元,同比增长106%,远超预期 [6] - 定制加速器业务同比增长140% [6] - AI网络营收同比增长60%,占AI总营收的三分之一 [9] - 非AI半导体营收为41亿美元,与去年同期持平 [10] - 基础设施软件部门:第一季度营收为68亿美元,同比增长1% [11][14] - VMware营收同比增长13% [11] - 第一季度预订的合同总价值超过92亿美元 年度经常性收入(ARR)同比增长19% [11] - 第二季度业务指引: - 半导体营收预计为148亿美元,同比增长76% [6][17] - AI半导体营收预计为107亿美元,同比增长约140% [6][17] - AI网络收入预计将加速增长,占AI总收入的40% [9] - 非AI半导体营收预计约为41亿美元,同比增长4% [10] - 基础设施软件营收预计约为72亿美元,同比增长9% [11][17] 各个市场数据和关键指标变化 - AI XPU客户部署:公司为5家(后确认为6家)客户定制AI XPU的部署进入下一阶段 [5] - Google:第七代Ironwood TPU需求强劲,2026年增长轨迹持续;预计2027年及以后对下一代TPU的需求将更加强劲 [6][7] - Anthropic:2026年1吉瓦TPU计算需求开局良好;预计2027年需求将激增至超过3吉瓦 [7] - Meta:定制加速器MTIA路线图进展顺利,正在发货;预计下一代XPU在2027年及以后将扩展至多个吉瓦 [7] - 其他客户(第4、5位):预计今年出货强劲,2027年将增长超过一倍 [7] - OpenAI(新增第6位客户):预计2027年将大规模部署其第一代XPU,计算容量超过1吉瓦 [7] - AI网络市场:公司正在获得市场份额 [9] - 在scale-out方面,率先上市的100Tb/s Tomahawk 6交换机和200G SerDes正从超大规模客户处获得需求 [9] - 在scale-up方面,随着集群规模扩大,公司通过200G SerDes技术使客户能够继续使用直连铜缆(DAC) [9] - 预计2028年升级至400G SerDes后,XPU客户可能继续使用DAC,相比转向光模块具有成本和功耗优势 [10] 公司战略和发展方向和行业竞争 - AI XPU战略:公司与六家客户的合作是深入、战略性和多年的 [8] - 公司提供硅设计、工艺技术、先进封装和网络方面的技术,帮助客户优化其差异化LLM工作负载的性能 [8] - 公司拥有大批量交付XPU、加速上市时间并保持高良率的记录 [8] - 公司提供多年供应协议,并在先进晶圆、高带宽内存和基板产能紧张时期确保供应,合作关系稳固 [8] - 技术领先与竞争:管理层认为公司在定制AI加速器(XPU)领域的技术领先优势显著 [28][30][31] - 客户自有工具(COT)模式面临技术、设计复杂性、先进封装和网络集群方面的巨大挑战 [28][30] - 公司拥有超过20年的经验,在硅设计、先进SerDes、封装和网络方面具备优势 [30] - 为在LLM平台竞争中胜出,客户需要最好的芯片,而公司是拥有最佳技术、IP和执行的合作伙伴 [31] - 预计COT竞争在多年内不会构成实质性威胁 [31] - 网络技术战略:公司在AI网络领域处于领先地位 [9][36][37] - Tomahawk 6(100Tb/s)和1.6Tb/s DSP是当前市场的独家产品,驱动网络组件快速增长 [36][37] - 预计2027年推出性能翻倍的Tomahawk 7,以维持领先地位 [9][37] - 预计AI网络收入在AI总营收中的占比将在33%-40%之间 [38] - 基础设施软件战略:VMware Cloud Foundation(VCF)是数据中心集成CPU、GPU、存储和网络的重要软件层 [12] - VCF作为AI软件和物理芯片之间的永久抽象层,不可被取代或绕过 [12] - 生成式和智能体AI的增长将需要更多的VMware,因为它能提供硬件无法提供的敏捷性 [12] - 长期可见性与供应链:公司对2027年的能见度大幅提高,已能预见2027年仅AI芯片收入就将显著超过1000亿美元 [10] - 公司已为2026年至2028年确保了所需的关键组件(如先进晶圆、HBM、基板)的产能 [8][60][61] - 通过与客户的深度战略合作,公司获得了未来2-4年的需求预测,从而能够提前锁定供应链 [61] 管理层对经营环境和未来前景的评论 - AI需求驱动:增长主要源于少数几家开发LLM并将其产品化、平台化的客户,包括超大规模企业和非超大规模企业 [22] - 训练需求持续存在,但令人惊讶的是,为产品化和货币化LLM而进行的推理需求正在推动大量计算容量 [23] - 客户正在创建自己的定制加速器及网络集群架构,需求持续上升 [23] - AI加速器架构演进:AI加速器(GPU/XPU)架构正随着工作负载演变而演进 [43] - 通用GPU的“一刀切”模式有其局限 [43] - XPU设计正变得更加定制化,以适应特定客户的工作负载(如MoE、推理),从而提供比传统GPU设计更好的性能和成本效益 [44] - 观察到客户可能同时开发专门用于训练和推理的芯片 [44][84] - 长期增长前景:基于当前的供应可见性和客户战略规划,公司预计在2028年仍能实现增长 [59][63] - AI XPU业务是与六大客户的战略性、可持续的合作,而非短期交易 [69][92][93] - 客户对XPU的部署是长期战略规划的一部分,公司深度参与其路线图 [91][92] 其他重要信息 - 公司预计2027年AI芯片收入将显著超过1000亿美元 [10] - 该预测主要基于芯片(XPU、交换芯片、DSP等)的硅含量 [24] - 从计算容量(吉瓦)角度看,2027年预计接近10吉瓦 [55] - 每吉瓦的芯片美元价值因客户而异,但大致在分析师估算的范围内 [55] - 关于毛利率:管理层澄清,AI产品(包括机架)的出货不会对整体毛利率产生实质性影响,公司已控制好成本和良率 [49] - 关于网络协议:以太网已成为横向扩展(scale-out)的事实标准,并且在纵向扩展(scale-up)领域,以太网也被认为是正确的选择,公司正在许多XPU设计中予以支持 [78][79] 问答环节所有的提问和回答 问题:关于2027年超过1000亿美元AI收入的具体构成(芯片、网络、机架)以及公司是否在AI领域获得份额 [20] - 回答:超过1000亿美元的预测主要基于芯片(XPU、交换芯片、DSP等)收入 [24]。公司看到来自少数几家LLM平台客户的非常强劲且不断增长的计算容量需求,特别是推理需求,这推动了增长 [22][23]。公司认为自身是这些客户在硅技术、IP和执行方面的最佳合作伙伴 [31]。 问题:关于客户自有工具(COT)计划是否会夺取公司的TPU/XPU份额,以及公司如何保持领先优势 [27] - 回答:COT模式在技术(硅设计、先进封装、网络集群)和大规模生产(高产量、快速上市)方面面临巨大挑战 [28][30][32]。公司拥有超过20年的经验,技术领先,且LLM客户需要最好的芯片来参与竞争 [30][31]。预计COT竞争在多年内不会构成实质性威胁 [31]。 问题:关于AI网络收入占比上升至40%的原因,长期混合比例,以及网络领导地位是否有助于XPU业务 [35] - 回答:网络增长快于XPU,主要受独家产品Tomahawk 6(100Tb/s交换芯片)和1.6Tb/s DSP驱动 [36][37]。预计AI网络收入占比将在33%-40%之间 [38]。公司在纵向扩展(scale-up)中通过先进SerDes技术使客户能持续使用低成本、低功耗的直连铜缆(DAC),这是一个巨大优势 [10][76]。 问题:关于工作负载解聚(如将prefill/decode从GPU生态分离)对定制硅需求的影响,以及GPU与定制硅的混合变化 [42] - 回答:这实质上是AI加速器架构随工作负载演变的问题 [43]。通用GPU有其局限,而XPU可以更定制化,针对特定工作负载(如MoE、推理)进行优化,从而更高效、成本更低 [44]。公司观察到XPU设计正与传统GPU设计分离,客户可能开发专门用于训练和推理的芯片 [44][84]。 问题:关于机架出货对毛利率的影响,以及毛利率是否有下限 [48] - 回答:AI产品(包括机架)的出货不会对整体毛利率产生实质性影响。公司已控制好成本和良率,AI业务的利润率模型与半导体业务其他部分相当一致 [49]。 问题:关于如何从已披露的吉瓦数推算2027年超过1000亿美元的收入,以及每吉瓦的芯片价值 [54] - 回答:从计算容量(吉瓦)角度分析是正确的 [55]。2027年预计接近10吉瓦 [55]。每吉瓦的芯片美元价值因客户而异,但大致在分析师估算的范围内(约200亿美元/吉瓦) [55]。 问题:关于公司如何能确保供应链至2028年,以及2028年是否仍能基于此供应实现增长 [59] - 回答:公司很早就预见到增长并锁定了关键组件(如T-glass、基板)的产能,且拥有良好的合作伙伴 [60]。通过与六大客户的深度战略合作,公司获得了未来多年的需求预测,从而能够提前多年投资并锁定供应链 [61]。基于当前的可见性,预计2028年仍能增长 [63]。 问题:关于Anthropic项目的芯片与机架收入构成,以及在客户使用多个供应商的碎片化环境中如何确保份额和可见性 [66] - 回答:公司仅与六大客户进行深度合作,他们的AI XPU投资是战略性而非可选性的 [68][69]。客户有清晰的XPU部署路线图以支持其LLM开发和产品化,这提供了清晰的可见性 [69]。其他GPU或云服务的使用是交易性和可选性的 [69][70]。关于Anthropic项目的具体构成,管理层未详细说明,但表示总体财务和利润率表现良好 [72]。 问题:关于强调客户将坚持使用直连铜缆(DAC)至400G SerDes的原因(尽管公司是CPO领导者),以及纵向扩展(scale-up)中以太网协议的发展 [75] - 回答:在纵向扩展(集群内)中,DAC是连接XPU/GPU的最低延迟、功耗和成本的方式,公司技术能将其推进至400G [76][77]。CPO将在其合适的时候到来,而非现在 [77]。在纵向扩展协议方面,行业正趋向于将以太网作为标准,公司正在许多XPU设计中予以支持 [79]。 问题:关于非TPU的全定制XPU参与是否主要针对推理应用,及其相对于GPU的性能或成本优势 [82] - 回答:客户通常从推理开始,因为定制XPU可以更高效、成本更低 [83]。但许多XPU也用于训练,两者可互换使用 [84]。更成熟的客户可能同时开发专门用于训练和推理的芯片,以同步推进LLM智能提升和产品化 [84][85]。公司看到多数客户正朝这个方向发展 [86]。 问题:关于近期能见度变化使公司能提供更多客户部署细节的原因,以及OpenAI部署计划是否意味着2028年会有急剧增长 [88] - 回答:随着公司与客户(合作已超两年)合作的深入,以及客户对其XPU与软件/算法配合的信心增强,能见度越来越好 [90][91]。这六大客户都将XPU视为长期战略,规划多代、多年部署 [91][92]。公司的XPU业务是战略性的、可持续的,而非短期交易 [93]。关于OpenAI的具体部署曲线,提问者的推断是合理的 [88][89]。