Workflow
AMD MI300X和MI355X平台
icon
搜索文档
大摩建模“AI推理工厂”:无论是英伟达还是华为芯片,都能盈利,平均利润率超50%
硬AI· 2025-08-16 15:36
AI推理的商业价值 - AI推理不仅是一场技术革命,更是一门可以被精确计算且回报丰厚的生意 [1] - 摩根士丹利报告显示,标准的"AI推理工厂"平均利润率普遍超过50% [2] - 英伟达GB200以77.6%的利润率领先,谷歌TPU v6e pod以74.9%紧随其后,AWS Trn2 UltraServer和华为昇腾CloudMatrix 384分别达到62.5%和47.9% [6][10][11] - AMD在推理场景下表现不佳,MI300X和MI355X平台利润率分别为-28.2%和-64.0% [12] 盈利榜单分析 - 英伟达GB200 NVL72的盈利能力达到77.6%,得益于计算、内存和网络性能优势以及CUDA软件生态 [6] - 谷歌TPU v6e pod的74.9%利润率证明云厂商通过软硬件协同优化可构建高效益AI基础设施 [10] - AMD亏损源于高昂成本与产出效率失衡,MI300X平台年度TCO达7.74亿美元,与英伟达GB200的8.06亿美元接近,但token产出效率不足 [12] 100MW AI工厂模型 - 摩根士丹利首创"100MW AI工厂模型",以100兆瓦电力消耗为基准单位,驱动约750个高密度AI服务器机架 [15] - 模型全面核算TCO,包括基建成本(每100MW约6.6亿美元)、硬件成本(3.67亿至22.73亿美元)和运营成本 [18] - 收入与token产出挂钩,参考每百万token 0.2美元的公允价格,并考虑70%的设备利用率 [16] 未来AI战场趋势 - 未来AI战场焦点集中在技术生态构建和下一代产品布局 [17] - 非英伟达阵营围绕"连接标准"展开竞争,AMD力推UALink,博通主张以太网方案 [19] - 英伟达下一代平台"Rubin"预计2026年Q2量产,Q3服务器放量,进一步巩固领先地位 [19]
大摩建模“AI推理工厂”:无论是英伟达还是华为芯片,都能盈利,平均利润率超50%
华尔街见闻· 2025-08-16 15:36
AI推理工厂的盈利能力 - 标准AI推理工厂的平均利润率普遍超过50% [1] - 英伟达GB200以77.6%的利润率领先行业 谷歌TPU v6e pod以74.9%紧随其后 [5][7] - AWS Trn2 UltraServer利润率62.5% 华为昇腾CloudMatrix 384利润率47.9% [7] - AMD MI300X和MI355X平台分别亏损28.2%和64.0% [7] 技术路径与成本结构 - 100MW AI工厂模型标准化评估框架包含算力单元 成本账本 收入公式三大支柱 [9] - 100MW工厂年均TCO范围3.3亿至8.07亿美元 其中英伟达GB200平台TCO达8.06亿美元 AMD MI300X为7.74亿美元 [7][9] - 收入模型基于每百万token 0.2美元定价 设备利用率假设70% [9] - 基建成本每100MW约6.6亿美元资本开支 硬件成本跨度3.67亿至22.73亿美元 [11] 行业竞争格局与未来趋势 - 英伟达凭借CUDA生态和FP4精度创新建立市场统治力 [5] - AMD亏损主因是token产出效率无法覆盖高昂TCO 其成本与英伟达同级但收入能力不足 [7] - 下一代技术竞争聚焦连接标准 UALink与以太网方案之争将影响生态构建 [10] - 英伟达Rubin平台计划2026年Q2量产 持续拉高行业竞争门槛 [10] 商业模型核心参数 - 100MW电力可驱动750个高密度AI服务器机架 [9] - 硬件折旧周期4年 基建折旧周期10年 [11] - 运营成本计算包含PUE和全球平均电价变量 [11]