Workflow
AI Spending Is Shifting — And Broadcom, Marvell Are Positioned To Win
Benzinga·2025-11-15 00:45

AI数据中心支出重心转移 - AI基础设施支出正从模型训练快速转向模型推理 预计到2027年推理将占增量计算支出的主要份额 2025至2026年已开始呈现此趋势 [2][3] - 推动因素包括蒸馏、量化、思维链和多步优化等技术使推理成本更低、效率更高 而训练周期呈现收益递减 [2] - 公司不再追求最大模型 而是寻求能够完成任务的最廉价模型 [3] 受益公司分析 - 博通因专注于为谷歌、亚马逊和Meta开发推理定制ASIC而成为主要受益者 在更小、更廉价、更高效模型需求下占据优势 [4] - 迈威尔科技受益于推理工作负载大量依赖以太网和PCIe 而非昂贵的面向训练的NVLink和InfiniBand结构 [5] - 天弘科技因行业转向白牌、OCP对齐硬件而定位良好 运营商寻求可从多个供应商采购的更廉价、标准化推理机架 [6] - 阿里斯塔网络继续锚定最高性能训练网络 但推理向以太网的广泛混合转变为未来更多网络受益者打开大门 [6] 行业驱动因素 - 电力限制推动转变 训练功耗比推理高5至10倍 许多数据中心电网容量无法支持大型训练集群全负荷运行 [7] - 推理在分布式服务器和边缘集群中扩展性更好 使其不仅更廉价且更易于部署 [7] - AI下一阶段重点是使AI更廉价、快速和易于运行 而非构建最大模型 [8]