MTIA
搜索文档
【招商电子】博通(AVGO.O)26Q1跟踪报告:六大XPU客户业务势头强劲,27年AI芯片收入将超千亿美元
招商电子· 2026-03-06 22:33
博通FY2026Q1业绩核心观点 - 公司FY2026Q1营收创历史新高,达193.11亿美元,同比增长29%,主要由AI半导体业务驱动,预计增长势头将加速 [2] - 公司对FY2026Q2及未来业绩给出强劲指引,预计Q2营收达220亿美元,同比增长47%,并预计2027年仅来自AI芯片的营收就将远超1000亿美元 [3][4][5] FY2026Q1业绩表现总结 - 总营收为193.11亿美元,创历史单季新高,同比增长29%,环比增长7%,略超此前指引(约191亿美元)[2] - 毛利率为76.99%,同比下降2.11个百分点,环比下降0.94个百分点,符合此前76.9%的指引 [2] - 调整后EBITDA为131亿美元,占营收的68%,高于此前67%的预期 [2] - 半导体部门营收125.15亿美元,同比增长52%,环比增长13%,占总营收65% [3] - 基础设施软件部门营收67.96亿美元,同比增长1%,环比下降2%,占总营收35% [3] - 自由现金流为80亿美元,占营收的41% [16] - 公司向股东派发31亿美元现金股息,并回购了价值78亿美元的普通股,合计返还股东109亿美元 [16] AI半导体业务表现与展望 - AI半导体业务营收84亿美元,同比增长106%,远超此前预期 [3] - AI网络营收同比增长60%,占AI总营收的三分之一,预计Q2将增长至总AI营收的40% [3][11] - 预计FY26Q2 AI业务营收将达107亿美元,同比增长140% [3][10] - 公司为六家主要客户(谷歌、Meta、Anthropic、OpenAI等)定制AI XPU,预计2027年仅来自AI芯片的营收就将远超1000亿美元 [5][12] - 公司已确保到2028年的关键供应链产能,以支持增长 [5] - 预计2027年AI芯片总交付量将接近10吉瓦(GW)[5][19] 半导体部门细分分析 - **AI业务**:营收84亿美元,同比增长106% [3] - **非AI业务**:营收41亿美元,同比持平,企业网络、宽带服务及存储收入的增长被无线业务季节性下滑所抵消 [3] - **毛利率**:约为68% [3] - **运营利润率**:为60%,同比提升2.6个百分点 [3] - **Q2指引**:半导体部门总营收预计148亿美元,同比增长76%,其中AI业务107亿美元,非AI业务41亿美元(同比增长约4%)[3][16] 基础设施软件部门表现 - 营收67.96亿美元,同比增长1%,环比下降2% [3] - 毛利率为93%,运营利润率为78%,同比提升1.9个百分点 [3] - 本季度订单量持续强劲,总合同价值超过92亿美元 [3] - 年度经常性收入(ARR)同比增长19% [3] - VMware表现突出,营收同比增长13% [14] - Q2营收指引为72亿美元,同比增长9%,环比增长6% [3][16] 网络业务与技术优势 - AI网络需求正在加速增长,Q1营收同比增长60% [3][11] - 在Scale Out(横向扩展)方面,公司率先上市的100Tbps Tomahawk 6交换机及200G 30s产品需求加大,下一代Tomahawk 7性能将实现翻倍 [5][12] - 在Scale Up(纵向扩展)方面,公司凭借200G DAC(直连铜缆)方案具备独特优势,能让客户继续使用DAC,因其时延、功耗和成本最低 [5][20] - 公司已有可跑400G且能保证传输距离的铜缆方案 [5][21] - 公司是CPO(共封装光学)技术的领先者,但预计今明两年都不会大规模应用 [5][21] - 以太网已成为横向扩展的事实标准,并正成为纵向扩展的正确技术选择 [22] 客户与项目进展详情 - **谷歌**:TPUv7需求强劲,预计2027年及以后下一代TPU需求会更强劲 [5][10] - **Anthropic**:2026年已启动1吉瓦TPU算力部署,2027年需求预计激增至超过3吉瓦 [5][10] - **Meta**:MTIA路线图进展顺利并已开始出货,下一代XPU将在2027年及以后扩大到多个吉瓦规模 [5][10] - **第四和第五个客户**:2026年出货量强劲,预计2027年将实现翻倍以上增长 [5][10] - **OpenAI(第六个客户)**:预计将在2027年大规模部署第一代XPU,算力规模超过1吉瓦 [5][10] - 公司与这六家客户是深度、战略性、多年期的合作,已完全锁定了2026年至2028年关键组件的产能 [11][19] 财务状况与资本配置 - 营业利润创历史新高,达128亿美元,同比增长31% [15] - 营业利润率为66.4%,同比提升50个基点 [15] - 库存金额为30亿美元,库存周转天数为68天,高于上季度的58天,反映了为AI业务增长进行的战略储备 [16] - 截至Q1末,公司持有现金142亿美元 [16] - 董事会已批准追加100亿美元用于股票回购计划,有效期至2026年底 [16] - 预计2026财年非GAAP税率约为16.5% [16] 管理层对竞争与市场趋势的看法 - 公司认为完全自主创建定制芯片(COT)挑战巨大,博通在技术、IP、量产良率和快速推向市场能力上遥遥领先,COT领域在未来多年内很难出现真正的竞争对手 [17] - AI网络组件增速甚至超过了XPU,预计其在总AI营收中的占比将维持在33%到40%之间 [18] - 定制AI XPU的设计针对特定工作负载(如LLM),能够灵活区分训练和推理,性能、成本和功耗优于通用GPU [17][23] - 大多数客户正朝着同时开发训练和推理芯片的方向发展,业务的可见度越来越高 [23] - 关于机架业务对毛利率的影响,公司认为担忧过度,影响并不显著 [18]
Counterpoint:博通(AVGO.US)将领跑AI ASIC设计市场,预计2027年市占率达60%
智通财经网· 2026-01-28 15:10
行业趋势与市场预测 - 人工智能服务器运算ASIC的出货量预计将在2027年增长两倍 [1] - 到2028年,AI服务器运算ASIC的出货量将超过1500万颗,超过数据中心GPU的出货量 [2] - 排名前十的AI超大规模数据中心运营商在2024年至2028年期间累计部署的AI服务器运算ASIC芯片将超过4000万颗 [2] - 市场正进入内部定制XPU时代,AI加速器针对特定训练或推理工作负载量身定制,不再仅仅依赖通用GPU [2] 主要参与者与市场份额动态 - 博通预计在2027年继续保持其在AI服务器运算ASIC设计合作伙伴领域的领先地位,市场份额将达到60% [1][3] - 到2027年,Alchip预计占据超大规模数据中心ASIC设计服务合作伙伴市场份额的18% [3] - 谷歌在2024年主导AI服务器运算ASIC出货量,市场份额为64%,但预计到2027年将下降至52% [3] - 亚马逊在2024年市场份额为36%,预计到2027年将下降至29% [3] - 迈威尔科技在ASIC设计服务市场的份额预计将从12%下降至8% [3] - 台积电在AI服务器运算ASIC出货量排名前十的公司中占据了近99%的晶圆制造份额 [2] 增长驱动因素 - 谷歌、亚马逊、苹果、微软、字节跳动和OpenAI加速部署用于训练和推理工作负载的芯片是增长主要驱动力 [1] - 具体需求包括对谷歌TPU基础设施的需求(支持Gemini项目)、亚马逊Trainium集群的持续扩展,以及Meta的MTIA和微软的Maia芯片的产能提升 [1] - 超大规模数据中心运营商基于自身技术栈构建了规模庞大的机架级AI基础设施,如谷歌的TPU Pod和AWS的Trainium UltraCluster,使其能够像超级计算机一样运行 [2] 竞争格局与战略动向 - 市场格局正迅速多元化,随着Meta、微软和其他公司进入该领域,谷歌和亚马逊的主导地位将减弱 [3] - 超大规模数据中心正逐渐摆脱对英伟达的过度依赖,转而寻求自研定制芯片以满足部分计算需求 [3] - 迈威尔科技的端到端定制芯片产品组合因定制硅创新技术(如定制的HBM/SRAM存储器和PIVR解决方案)及对Celestial AI的收购而更加稳固 [4] - 对Celestial AI的收购不仅每年能为迈威尔科技带来数十亿美元的收入增长,还有可能在未来几年内推动其在光规模化连接领域占据领先地位 [4]
Broadcom Set To Dominate Custom AI Chip Market With 60% Share By 2027, Counterpoint Says
Benzinga· 2026-01-28 01:26
行业趋势:超大规模企业加速部署定制AI芯片 - 领先的云与AI提供商,包括谷歌、亚马逊AWS、微软、OpenAI、字节跳动和苹果,正在迅速扩大基于专用集成电路(ASIC)的AI服务器计算系统的部署,以处理专门的训练和推理工作负载 [1] - 定制AI芯片的竞赛正在加速,超大规模企业正在扩大内部芯片规模以满足激增的需求 [1] - 行业结构正在转变,AI服务器计算ASIC的出货量正从2024年由谷歌和AWS主导的集中双头垄断格局,转向2027年更多元化的格局 [5] - 这反映了超大规模企业更广泛的战略,即减少对商用GPU的依赖,并通过针对特定工作负载定制的芯片来优化每瓦性能 [5] 市场增长预测 - Counterpoint Research预测,2024年至2027年间,前10大超大规模企业的AI服务器计算ASIC出货量将增长两倍(即增至三倍) [2] - 这一增长由以下因素推动:支持Gemini的谷歌张量处理单元(TPU)基础设施需求激增、AWS Trainium集群的持续扩展,以及Meta的MTIA和微软的Maia芯片在构建内部芯片组合过程中的批量上量 [2] 主要参与者与竞争格局 - 博通预计将保持其顶级AI服务器计算ASIC设计合作伙伴的地位,尽管面临来自日益壮大的谷歌-联发科联盟的竞争,但其在2027年的市场份额仍将保持在约60% [3] - 与此同时,迈威尔科技面临设计订单压力,尽管同期出货量将翻倍,但其设计服务份额预计到2027年将下滑至约8% [3] - 谷歌的TPU舰队将继续锚定行业出货量,因为训练和服务下一代Gemini模型的计算需求推动了持续的内部芯片投资 [4] - 随着总可寻址市场的扩大和竞争对手扩大自身芯片规模,谷歌的市场份额可能会有所缓解,但TPU仍将是AI服务器计算ASIC部署的核心支柱 [4] - Meta和微软正在加速内部芯片计划,预计将对市场做出有意义的贡献 [5] 制造环节 - 台积电继续主导制造环节,是首选的代工厂,在前10大玩家的AI服务器计算ASIC的几乎所有前端和大部分后端生产的晶圆制造中占据主导地位 [6]
巨头加速抛弃英伟达
半导体芯闻· 2026-01-27 18:19
行业趋势:大型科技公司加速摆脱对英伟达的依赖 - 大型科技公司正通过开发定制芯片或寻求供应商多元化,以降低对英伟达的依赖,英伟达目前占据AI芯片市场90%的份额 [2] - 驱动因素包括英伟达GPU价格高昂、供应短缺以及其封闭的CUDA生态系统 [4] - 定制芯片可针对特定AI任务进行优化,以提高能效并降低运营成本 [4] 微软的自研AI芯片进展 - 微软发布了首款商用AI芯片“Maia 200”,采用台积电3纳米工艺,集成SK海力士的HBM3E显存 [4] - 该芯片专为高性能AI推理设计,微软称其在“轻量级计算”方面性能是AWS最新AI芯片的三倍,计算效率高于谷歌的AI芯片 [5] - 首席执行官萨蒂亚·纳德拉表示,该芯片在同等预算下可提供高出30%的性能,预计将支持OpenAI的GPT-5.2和微软的Copilot [5] - 微软已将芯片部署在爱荷华州的数据中心,并计划扩展至其他数据中心供Azure客户使用 [5] 其他科技公司的自研芯片与供应链多元化 - 谷歌使用其定制的张量处理单元来训练和运行Gemini AI模型,其性能在某些任务中优于GPU且功耗更低 [6] - AWS发布了Trainium3 AI芯片,与之前的Trainium2相比,计算性能提升了四倍,而能耗降低了约40% [6] - Meta开发了自己的AI芯片MTIA,OpenAI正与博通合作开发定制芯片,计划于2024年下半年发布 [6] - 供应链呈现多元化趋势,例如Meta探讨在其2027年投入运营的数据中心中使用谷歌的TPU,谷歌也计划扩大TPU的外部销售 [6] - Anthropic在构建和部署其AI模型Claude时,使用了超过100万个AWS的Trainium2芯片 [6] 英伟达的应对策略与业务扩张 - 英伟达正从单纯销售GPU转型为一家“全栈AI”基础设施公司,通过垂直整合芯片、服务器、软件和模型来构建AI工厂 [2] - 公司业务已从AI芯片扩展到AI模型和机器人领域,例如发布开源天气预报AI模型,开发用于自动驾驶和推理的模型,并运营Omniverse平台作为机器人数字训练场 [7] - 英伟达首次独立向客户供应CPU,宣布向数据中心运营商CoreWeave追加20亿美元投资,计划在其数据中心部署自家CPU,对英特尔和AMD构成挑战 [7] - 通过近期收购Groq等公司,英伟达旨在巩固其在AI推理市场的技术地位,目标是使其基础设施在AI应用于现实世界的推理阶段也至关重要 [7] 英伟达在供应链中的关键地位 - 预计英伟达将在2025年超越苹果,成为台积电最大的客户 [2][8] - 科技咨询公司Creative Strategists预测,2025年台积电营收的22%(330亿美元)将来自英伟达,而苹果的贡献为270亿美元(18%) [8] - 2024年,苹果是台积电最大客户(占22%),英伟达紧随其后(占12%),这意味着英伟达在台积电营收中的份额将在两年内增长10个百分点 [8]
Nvidia's Unspoken Problem: 40% of Revenue Comes From Companies Developing Their Own AI Chips
247Wallst· 2026-01-26 22:40
文章核心观点 文章指出,尽管英伟达凭借为人工智能革命提供基础硬件而建立了庞大的商业帝国,但其面临三个未在财报电话会上讨论的、正在发生的生存威胁:主要客户自研芯片、AMD的竞争以及中国的战略博弈 [1][9][10] 威胁一:主要客户自研芯片 - 微软、Meta、亚马逊和Alphabet贡献了英伟达**40-50%**的营收,但这些公司均在开发自研AI芯片,并已投入生产基础设施 [2] - 谷歌TPU驱动Bard和搜索,亚马逊Trainium芯片为AWS客户提供更廉价选择,Meta的MTIA处理推理工作负载,微软的Maia芯片在Azure中部署 [2] - 推理工作负载预计占长期AI计算的**80%**,而训练仅占**20%**,若超大规模客户自研推理芯片,英伟达可能失去**80%**的可寻址市场 [3] - 公司曾以**85%**的毛利率向这些现在自建数据中心的客户销售基础设施 [3] 威胁二:AMD的竞争 - 过去一年,AMD股价上涨**111%**,而英伟达上涨**28%**,市场已注意到AMD MI300X芯片能以低**20-30%**的成本提供有竞争力的性能 [4] - 微软Azure已提供MI300X实例,Oracle Cloud与AMD合作,Meta部署MI300X用于推理,OpenAI据报测试AMD芯片以减少对英伟达依赖 [4] - 软件生态壁垒正在减弱,PyTorch支持大幅改进,AMD的ROCm软件栈缩小差距,OpenAI的Triton编译器抽象了硬件差异 [5] - 在更看重性价比而非绝对速度的推理工作负载中,AMD正在赢得业务 [5] - AMD无需完全胜出,仅夺取**20-30%**的市场份额就足以使英伟达增长急剧减速,且MI400系列将于2026年推出,将进一步缩小性能差距 [6] 威胁三:中国的战略博弈 - 中国批准H200芯片看似利好,实则为一种策略:先批准外国技术,获取合作伙伴关系与技术转移,发展国内替代品,再以国家安全为由禁止外国产品 [7] - 中国在稀土、高通及尝试对苹果iPhone均采用此策略,华为的昇腾910B芯片和中芯国际的7纳米芯片生产均是在制裁背景下发展起来的 [8] - 若英伟达重建对中国**20-30%**的营收依赖,那么类似2028年的禁令可能成为毁灭性事件 [8] 市场讨论与公司沟通 - 在季度电话会上,公司管理层专注于无法满足的AI需求与合作伙伴公告,从未讨论客户芯片开发进展、AMD市场份额趋势或推理与训练业务的利润结构 [9] - 看涨观点假设AI增长惠及所有参与者,而看跌观点则认识到客户在自建“船只”,AMD提供更廉价“船票”,而中国计划彻底“击沉船只”,这些是市场拒绝定价的当前现实 [10]
几颗“边角料”芯片,竟让英特尔大涨10%
虎嗅· 2025-12-01 12:10
文章核心观点 - 市场对英特尔为苹果代工低端M5芯片的传闻反应强烈 英特尔股价单日大涨10.2% [1] - 市场关注的并非短期订单利润 而是英特尔作为台积电替代供应商的叙事从0到1的估值重构机会 [3] - 苹果 谷歌 Meta等科技巨头对英特尔的潜在合作意向 可能打破其IDM模式的诅咒 开启代工业务的价值重估 [16] 苹果的背书与合作细节 - 苹果计划最早在2027年第二至第三季度让英特尔采用18AP制程代工最低端M系列处理器 预计今年相关设备出货量约2000万台 [4][6] - 基础版M系列芯片用于MacBook Air和iPad Pro 结构相对单一 是验证先进制程良率最友好的产品 [4] - 双方合作已进入实质性流片验证阶段 苹果已取得英特尔18AP制程的PDK 0.9.1GA工具包 并等待2026年发布的PDK 1.0/1.1 [4][5][6] - 对英特尔而言 拿下M系列相当于获得进入苹果高端俱乐部的门票 为后续14A等更先进节点合作铺路 [4] 库克的战略考量与行业趋势 - 苹果此举旨在回应美国"制造业回流"政策 将最低端M系列交由亚利桑那州英特尔美国工厂生产 既兑现"美国芯"承诺又控制试错成本 [7] - 建立"台积电+英特尔"双供应商制度可降低苹果对台积电的单一依赖风险 目前苹果90%以上先进制程产能集中在台积电 [8][9] - 谷歌和Meta也被爆出考虑采用英特尔封装解决方案 以应对台积电CoWoS先进封装产能被英伟达和AMD垄断的局面 [9][10] 英特尔的估值重构逻辑 - 传闻打破了英特尔的"IDM诅咒" 其IDM 2.0战略此前因固定成本高 折旧周期长在AI时代被视为笨重模式 [11][13] - 2025年英特尔晶圆代工外部营收预计仅为1.2亿美元 不到台积电同期收入的千分之一 巨额资本支出与回报严重不匹配 [14][15] - 顶级客户的订单预期使英特尔的设备折旧有望转为未来现金流 股价性质转变为包含"2027年代工业务成功"的看涨期权 [16][17] - 若14A工艺能赢得外部客户 代工业务估值倍数可向台积电看齐 市值有进一步提升空间 [16][17][18]
ASIC终于崛起?
半导体行业观察· 2025-11-28 09:22
英伟达市场地位分析 - GPU被定义为人工智能时代的核心产品,如同个人电脑时代的Windows操作系统 [1] - 英伟达在基于GPU的人工智能芯片市场占据90%份额,其GPU单价高达3万至4万美元 [1] - 公司凭借GPU产品成为全球市值最高的企业 [1] 竞争格局变化 - 各大科技巨头开始自主研发专用集成电路或拓展半导体供应商,英伟达统治地位出现动摇迹象 [1] - 人工智能开发模式从训练转向推理,更适合使用能效更高的专用芯片,这正在动摇英伟达的垄断地位 [1] - ASIC专为特定用途设计,在能效和成本方面优于英伟达的GPU [1] 科技公司自研芯片进展 - 谷歌定制芯片TPU性能优于GPU且功耗更低,人工智能初创公司Anthropic计划使用多达100万个TPU开发模型 [3] - Meta已将谷歌TPU引入数据中心,并开发出自有AI芯片MTIA用于AI开发和服务 [3] - OpenAI计划与博通合作于明年年底生产自研芯片,亚马逊AWS运营着配备50万颗Trainium2芯片的AI数据中心 [3] - 阿里巴巴和百度等中国公司使用自主研发半导体训练AI模型,旨在减少对英伟达依赖 [3] 技术经济性比较 - 安装24000块英伟达最新Blackwell GPU需8.52亿美元,而同等规模谷歌TPU成本仅为9900万美元 [5] - 定制芯片比GPU更便宜节能,在运营方面更具优势,有望缓解人工智能基础设施过度投资引发的泡沫担忧 [5] - 推理阶段所需性能水平远不及训练阶段,TPU和NPU等高能效轻量化半导体器件受到更多关注 [5] 半导体技术特性对比 - CPU被比喻为技艺精湛的大厨能处理各种任务但耗时较长,GPU相当于1000名兼职工人同时高效运转 [8] - TPU是专门执行特定任务的机器,不需要像GPU那样多的兼职工人但仍需大型工厂运行 [8] - NPU模拟人脑结构,体积小重量轻功耗低,非常适合智能手机和家用电器应用 [8] 产业链格局演变 - 随着大型科技公司与芯片设计公司合作生产自有芯片,博通等芯片设计公司正崛起成为新竞争对手 [6] - 以英伟达为中心的AI生态系统预计将发生变化,目前台积电代工英伟达芯片的格局已十分稳固 [6]
The One AI Risk Nvidia Bulls Keep Pretending Isn't Real
Benzinga· 2025-11-26 03:19
文章核心观点 - 英伟达面临的核心风险并非来自竞争对手的GPU,而是来自超大规模云服务商(超算中心)为摆脱其高利润率“征税”而转向自研AI芯片(如谷歌的TPU),这将逐步侵蚀英伟达的定价权和利润率,而非直接取代其计算份额 [1][5][6] 行业竞争格局与趋势 - 超大规模云服务商已普遍采纳类似苹果的“平台所有者不应永远向供应商支付溢价利润”的准则,正在积极开发自研AI芯片以控制成本和基础设施 [2][4] - 谷歌开发TPU并非为了在硬件性能上击败英伟达,而是为了停止每个季度向英伟达支付数十亿美元的计算支出,从而按照自身条款、基础设施和成本运行AI [2] - 亚马逊拥有Trainium和Inferentia芯片,Meta拥有MTIA芯片,微软正在资助Maia芯片的开发,行业转向自研芯片的趋势已经发生,而非推测 [4] - 没有公司愿意成为最后一个支付GPU“过路费”的企业,一旦有主要厂商(如谷歌)率先成功,其他厂商将迅速跟进 [4] 对英伟达的潜在影响 - 自研芯片(如TPU)无需在性能上完全匹配GPU,只需对内部大规模工作负载达到“足够好”的水平,同时价格仅为英伟达产品的一小部分,这将导致英伟达的定价权被缓慢侵蚀 [3] - 英伟达不需要失去计算市场份额就可能失去利润率领导地位,只需超大规模云服务商建立起足够可信的替代方案来设定价格上限 [5] - 公司面临的风险并非变得过时,而是变得“可以议价”,一旦超大规模云服务商拥有真正的议价杠杆,其长期维持70%以上毛利率的能力将受到威胁 [1][6] - AI需求的故事无懈可击,但AI定价权的故事则不然 [6]
人工智能数据中心扩容专家讨论核心要点-Hardware & Networking_ Key Takeaways from Expert Discussion on Scaling Up AI Datacenters
2025-11-18 17:41
行业与公司 * 行业为人工智能数据中心硬件与网络设备[1][3] * 会议是与Scale AI的数据科学家Sri Kanajan进行的专家讨论 聚焦于AI数据中心的扩展[1] 核心观点与论据 **资本支出向推理计算转移** * 计算资本支出向推理转移的速度快于预期 蒸馏、思维链和多步技术以及推理时优化带来了更大的近期收益 而训练工作的回报正在递减[3] * 专家预计增量计算资源用于推理的份额将在约2027年超过训练 2025-2026年已出现向推理的混合支出[3] * 运营商因成本、供应商广度和更容易扩容而越来越倾向于为推理工作负载使用以太网 同时将InfiniBand集中在训练集群所需的地方[3] **模型效率与成本权衡** * 企业正从使用最大/最好的模型转向通过量化和蒸馏微调更小的模型 愿意为推理工作负载相关成本的大幅降低而接受轻微的质量折衷[3] * 更多AI解决方案正与向量数据库、上下文检索、工作流级集成和实时数据访问一起部署 以释放全部投资回报率[3] **硬件与网络标准化** * 在推理相关网络中出现硬件标准化 训练仍由NVLink和InfiniBand主导 而对于推理ASIC 以太网/PCIe和UALink/UEC正获得份额[3] * 专家预计明年将有更多机架级标准化 白牌服务器势头通过OCP计划扩大 Celestica正在推动较低性能级别交换机的标准化 而Arista的交换机仍受青睐于极高性能场景[3] * 对于超过1.6T的速率 可能需要共封装光学器件 而在400G/800G速率下 许多运营商仍可使用可插拔光学器件满足需求[3] **约束条件从GPU供应转向电力** * GPU交付时间已显著缩短 高带宽内存仍然紧张 但整体供应正在改善 主要约束是电网供电和场地能源 许多数据中心因无法获得足够电力而未充分利用[3] * 这种情况有利于推理 因为训练所需的电力高出数个量级(专家表述为超过5-10倍)且需要同步、同地计算 绝大多数训练仍在单个数据中心内进行[3][4] * 推理通过缓存、嵌入和边缘友好数据存储将计算分区跨服务器或集群 能更好地容忍跨地域扩展[4] **GPU资产寿命与存储架构** * GPU资产寿命正在变长 买家现在计划GPU使用寿命为五到六年 高于之前的大约四年 随着新一代GPU上市 资产从训练转移到较低优先级训练任务 再到推理 最后到内部工作负载[5] * 存储继续是混合决策 HDD在成本上仍保持领先 闪存主导训练和密集型推理需求 而硬盘仍适用于不常访问的数据集、日志记录和嵌入 其中每太字节成本至关重要[5] * HDD方面的进步 包括HAMR技术 正在帮助HDD在闪存使用扩大的情况下保持成本领先地位[5] 其他重要内容 **潜在受益公司** * Broadcom被视为向推理转移的主要受益者 因其在定制ASIC方面的工作 包括与Google、亚马逊和Meta的合作[5] * Marvell也应受益于更标准化的推理工作负载和集群更倾向于以太网/PCIe而非NVLink/InfiniBand[5] * Celestica可能随着白牌服务器在OCP设计中的广泛采用而扩大份额[5] * Arista将继续主导最高性能的训练网络 但向推理中以太网的混合转移可能会驱动更广泛的受益领域[5] **分析师覆盖范围** * 报告作者Samik Chatterjee覆盖的股票包括Arista、Celestica等多家硬件与网络公司[10]
AI Spending Is Shifting — And Broadcom, Marvell Are Positioned To Win
Benzinga· 2025-11-15 00:45
AI数据中心支出重心转移 - AI基础设施支出正从模型训练快速转向模型推理 预计到2027年推理将占增量计算支出的主要份额 2025至2026年已开始呈现此趋势 [2][3] - 推动因素包括蒸馏、量化、思维链和多步优化等技术使推理成本更低、效率更高 而训练周期呈现收益递减 [2] - 公司不再追求最大模型 而是寻求能够完成任务的最廉价模型 [3] 受益公司分析 - 博通因专注于为谷歌、亚马逊和Meta开发推理定制ASIC而成为主要受益者 在更小、更廉价、更高效模型需求下占据优势 [4] - 迈威尔科技受益于推理工作负载大量依赖以太网和PCIe 而非昂贵的面向训练的NVLink和InfiniBand结构 [5] - 天弘科技因行业转向白牌、OCP对齐硬件而定位良好 运营商寻求可从多个供应商采购的更廉价、标准化推理机架 [6] - 阿里斯塔网络继续锚定最高性能训练网络 但推理向以太网的广泛混合转变为未来更多网络受益者打开大门 [6] 行业驱动因素 - 电力限制推动转变 训练功耗比推理高5至10倍 许多数据中心电网容量无法支持大型训练集群全负荷运行 [7] - 推理在分布式服务器和边缘集群中扩展性更好 使其不仅更廉价且更易于部署 [7] - AI下一阶段重点是使AI更廉价、快速和易于运行 而非构建最大模型 [8]