Workflow
大摩建模“AI推理工厂”:无论是英伟达还是华为芯片,都能盈利,平均利润率超50%

AI推理工厂的盈利能力 - 标准AI推理工厂的平均利润率普遍超过50% [1] - 英伟达GB200以77.6%的利润率领先行业 谷歌TPU v6e pod以74.9%紧随其后 [5][7] - AWS Trn2 UltraServer利润率62.5% 华为昇腾CloudMatrix 384利润率47.9% [7] - AMD MI300X和MI355X平台分别亏损28.2%和64.0% [7] 技术路径与成本结构 - 100MW AI工厂模型标准化评估框架包含算力单元 成本账本 收入公式三大支柱 [9] - 100MW工厂年均TCO范围3.3亿至8.07亿美元 其中英伟达GB200平台TCO达8.06亿美元 AMD MI300X为7.74亿美元 [7][9] - 收入模型基于每百万token 0.2美元定价 设备利用率假设70% [9] - 基建成本每100MW约6.6亿美元资本开支 硬件成本跨度3.67亿至22.73亿美元 [11] 行业竞争格局与未来趋势 - 英伟达凭借CUDA生态和FP4精度创新建立市场统治力 [5] - AMD亏损主因是token产出效率无法覆盖高昂TCO 其成本与英伟达同级但收入能力不足 [7] - 下一代技术竞争聚焦连接标准 UALink与以太网方案之争将影响生态构建 [10] - 英伟达Rubin平台计划2026年Q2量产 持续拉高行业竞争门槛 [10] 商业模型核心参数 - 100MW电力可驱动750个高密度AI服务器机架 [9] - 硬件折旧周期4年 基建折旧周期10年 [11] - 运营成本计算包含PUE和全球平均电价变量 [11]