核心观点 - AMD凭借MI300系列在AI加速器市场确立高内存供应商地位,Meta和OpenAI等头部客户采用将推动其数据中心收入翻三倍以上,2027年毛利率有望突破55% [1] - 公司差异化内存技术(192GB HBM3e)和模块化设计形成成本优势,单卡成本比英伟达H100低30%-50%,在超大规模数据中心扩展中具备每瓦吞吐量优势 [6][8][14] - ROCm软件生态通过vLLM/HIP支持实现关键突破,与CUDA效率差距缩小至可接受范围,Meta全流量迁移验证其商用成熟度 [4][10] - 行业分析师预计2028年AI加速器市场规模达5000亿美元,AMD当前市销率8倍显著低于英伟达25倍,DCF估值显示40%上行空间 [20][23] 产品技术优势 - MI300X配备192GB HBM3e内存和5.3TB/s带宽,是英伟达H100内存容量的2.4倍,可完整承载4050亿参数Llama 3.1模型无需分区 [6] - CDNA 3架构FP8性能达2.6 petaFLOPS/750W,MLPerf测试显示GPT-J/BERT推理性能与H100相当,带宽优势达60% [7] - 小芯片策略降低硅成本,192GB配置下每GPU节省数万美元物料成本,HBM堆栈模块化设计使远期成本曲线优于竞争对手 [4][7] - UALink开放互连标准打破NVLink垄断,已支持1.0信令并确保2.0向后兼容,降低供应商锁定风险 [11] 客户与市场进展 - Meta订购17万块MI300X用于Llama 3.1,OpenAI计划部署MI350并联合设计MI450,全球十大AI公司中七家已部署MI300系统 [2][10] - 微软/甲骨文/三星/DigitalOcean推出MI300X实例,Oracle云提供GPU.MI300X.8型号,戴尔优化PowerEdge节点支持Llama 4 [3][10] - 2024年MI300X出货量超32.7万台,Meta占50%份额,其加速器更新周期将与Llama参数增长同步 [14] - 数据中心部门2024Q1营收37亿美元(同比+57%),运营利润率25%,非GAAP毛利率54%创纪录 [16] 财务与估值 - 2024年数据中心AI收入约50亿美元,管理层预计2027年达"数百亿美元",对应15%年复合增长率 [1][19] - 华尔街预计2026年营收370-380亿美元(EPS 5.9美元),2027年或突破450亿美元(EPS 8-9美元) [17] - 2027年自由现金流预估超150亿美元,DCF估值对应股权价值4000亿美元(每股245美元) [20] - 当前市销率8倍仅为英伟达1/3,若达英伟达一半水平则存在显著重估空间 [20][21] 行业趋势 - 2023-2028年AI加速器市场规模预计增长10倍至5000亿美元,剩余20%份额对应千亿美元级机会 [14][19] - 超大规模厂商普遍采用多供应商策略,谷歌/亚马逊/Meta自研芯片仍采购商用GPU作为备份 [15] - HBM产能紧张导致英伟达订单排期至2026年,云服务商急需备选供应商 [4] - 推理场景运营成本敏感性提升,AMD内存优势转化为每GB成本降低50%的采购吸引力 [8]
Meta 对 AI 的痴迷对 AMD 来说是个好消息