数据中心AI加速器

搜索文档
Meta 对 AI 的痴迷对 AMD 来说是个好消息
美股研究社· 2025-07-09 19:25
作 者丨 LL Insights 编译 | 华尔街大事件 这种新趋势出现的时机,恰逢 AI 加速器供应结构性短缺。由于 HBM 产能紧张,英伟达的订单 排期已到 2026 年之后,云服务商急需一个可靠的备选供应商。AMD 的小芯片(chiplet)策略 使其能以更低的边际硅成本整合更多内存通道,相比单片设计的竞争对手拥有物料成本优势 —— 在 192GB 容量下,每块 GPU 能节省数万美元。当数据中心的电力和空间预算有限时,这种成本 差异在数万个节点的规模下会变得无法忽视。 软件方面的障碍也不再难以逾越。ROCm 6.2 版本新增了原生 vLLM 和 Bits-and-Bytes 支持、 FP8 内核及全新性能分析工具,在训练和推理场景下与 CUDA 的效率差距大幅缩小。Meta 公开 表示,其 Llama 3.1 的生产流量已完全由 MI300X 集群承载,这说明 AMD 的软件栈已经能胜任 最严苛的实时推理工作负载。随着越来越多开源仓库接受 HIP 代码提交,客户的切换成本会逐季 降低。 Instinct MI300X 是首款将 192 GB HBM3e 与 5.3 TB/s 带宽集成于一体的数据中心 ...