Workflow
ROCm 7.0
icon
搜索文档
AMD“再战”英伟达:发布AI芯片MI350系列,OpenAI成关键盟友
国际金融报· 2025-06-13 22:17
AMD新品发布 - AMD在Advancing AI 2025大会上发布旗舰数据中心AI芯片MI350系列、AI软件栈ROCm 7 0、AI机架级基础设施、AI网卡与DPU等新品 [2] - MI350系列包括MI350X和MI355X两款GPU 采用3nm工艺 包含1850亿晶体管 配备HBM3E内存 算力比前代MI300X提升4倍 推理速度快35倍 [2] - AMD预计2028年AI市场规模将超5000亿美元 并预告2026年推出MI400系列和下一代"Helios"AI机架级基础设施 [2][3] 产品性能与路线图 - MI350系列将于2025年三季度上市 获甲骨文、戴尔、Supermicro、HPE、思科等数十家厂商采用 [3] - MI400系列由AMD与OpenAI联合研发 OpenAI已在使用MI300X芯片并期待MI450表现 [3] - AMD实现Instinct系列史上最大性能飞跃 每年推出新AI加速器 [3] 财务表现 - AMD 2025年Q1营收74 4亿美元 同比增长35 9% 超市场预期的71亿美元 净利润7 1亿美元 核心经营利润同比激增170%至11 2亿美元 [4] - 英伟达2025年Q1营收441亿美元 同比增长69% 净利润187 8亿美元 同比增长26% 数据中心收入391亿美元 占总营收88% [4] 行业竞争格局 - 2025年Q1全球芯片设计厂商排名 英伟达以423 69亿美元收入居首 AMD以74 38亿美元排名第四 [7] - 英伟达数据中心收入环比增10% 同比增73% 大型云服务提供商贡献近半收入 其中50亿美元来自网络产品 [4] - AMD计划扩大量产MI350并推出MI400 预计与英伟达在AI算力市场竞争将白热化 [5]
AMD(AMD.US)发布两代旗舰AI芯片欲叫板英伟达 大摩:MI400或成关键拐点
智通财经网· 2025-06-13 20:52
产品发布 - 公司在AMD Advancing AI大会上发布史上最强AI新品阵容,包括旗舰数据中心AI芯片、AI软件栈、AI机架级基础设施、AI网卡与DPU [1] - 重点产品包括数据中心AI芯片AMD Instinct MI350系列、MI400系列(明年推出)、全新AI软件栈ROCm 7 0、下一代"Helios"AI机架级基础设施(明年推出) [1] - MI400系列专为大规模训练和分布式推理设计,FP4精度下峰值算力达40PFLOPS,FP8峰值性能达20PFLOPS,搭载432GB HBM4内存,内存带宽19 6TB/s,每GPU横向扩展带宽300GB/s [2] - MI400系列相比MI355X性能提升高达10倍 [2] 市场预期与竞争 - 摩根士丹利认为MI400可能成为公司"长期潜在拐点",若能如期交付将带来更大影响 [1] - 分析师初步看法认为MI400系列芯片和机架架构与英伟达Vera Rubin系列相当 [2] - OpenAI联合创始人Sam Altman透露团队在MI300X和MI450上开展工作,评价MI450内存架构已为推理做好准备 [2] - Sam Altman的发言被视为对AMD未来机遇的确认,可能增加投资者对公司"数百亿美元AI年收入"预测的可信度 [3] 公司战略与资源整合 - 公司强调过去12个月内完成25项收购和投资,分析师认为这体现其资源整合能力 [3] - 分析师指出执行力将是公司与市值数万亿美元竞争对手争夺市场份额的关键因素 [3]
AMD甩出最猛两代AI芯片,全球首推432GB HBM4,OpenAI CEO现场夸
36氪· 2025-06-13 10:04
产品发布 - AMD在Advancing AI大会上发布史上最强AI新品阵容,包括旗舰数据中心AI芯片、AI软件栈、AI机架级基础设施、AI网卡与DPU,展现与英伟达竞争雄心 [1] - 重点产品包括数据中心AI芯片MI350系列和MI400系列,其中MI350系列采用3nm制程,集成1850亿晶体管,基于CDNA 4架构,搭载288GB HBM3e内存,内存带宽8TB/s,单GPU可运行5200参数大模型,FP4/FP6精度下峰值算力20PFLOPS,推理性能达上一代35倍 [5] - MI400系列专为大规模训练和分布式推理设计,FP4精度下峰值算力40PFLOPS,FP8峰值性能20PFLOPS,搭载432GB HBM4内存,内存带宽19.6TB/s,性能相比MI355X提升10倍 [7][9] 性能对比 - MI355X与英伟达B200/GB200相比,内存容量多60%,FP64/FP32和FP6精度下峰值性能翻倍,FP16/FP8/FP4精度下性能相当 [36] - 运行DeepSeek R1模型时,MI350系列推理吞吐量超过英伟达B200 [5] - 8卡MI355X平台总内存2.3TB HBM3e,内存带宽64TB/s,FP4/FP6精度下峰值算力161PFLOPS [39][41] 软件生态 - 全新AI软件栈ROCm 7.0推理性能提升4倍以上,训练性能提升3倍,支持主流模型Day 0级支持,首度支持Windows系统 [12] - ROCm 7引入分布式推理方法,与SGLang、vLLM等开源框架协作,运行DeepSeek R1 FP8精度时吞吐量比B200高30% [85][86] - AMD推出开发者云,提供即时访问MI300X GPU,预装流行AI软件,率先注册开发者可获得25小时免费积分 [92][93] 基础设施 - 下一代"Helios"AI机架级解决方案支持72块MI400系列GPU,FP4峰值算力2.9EFLOPS,HBM4内存容量、带宽等指标比英伟达Oberon机架高50% [14][19][21] - Helios集成EPYC "Venice" CPU、MI400系列GPU和Pensando "Vulcano" NIC,其中EPYC "Venice"采用2nm制程,基于Zen 6架构,最多256核 [21] - AMD剧透2027年将推出下一代机架级解决方案,集成EPYC "Verano" CPU、MI500系列GPU和Pensando "Vulcano" NIC [24] 行业趋势 - 数据中心AI加速器TAM市场将年增60%以上,2028年达5000亿美元,推理将成为AI计算最大驱动力,未来几年年增80%以上 [30] - 全球10大AI公司中有7家正大规模部署AMD Instinct GPU [34] - AMD设定2030年新目标:将机架级能效提高20倍,使目前需275个机架的AI模型能在1个机架内训练,运营用电量减少95% [118]