ROCm 7.0

搜索文档
AMD“再战”英伟达:发布AI芯片MI350系列,OpenAI成关键盟友
国际金融报· 2025-06-13 22:17
| (unit: US$M) | | --- | 全球第二大的CPU、GPU厂商AMD再次公开"叫板"英伟达。 当地时间2025年6月12日,AMD在美国圣何塞举办年度AI盛会Advancing AI 2025,会上发布了旗舰数据中心AI芯片、AI软件栈、AI 机架级基础设施、AI网卡与DPU等新品。AMD掌门人苏姿丰(Lisa Su)表示,公司最新AI处理器有望挑战英伟达芯片,并预测 2028年市场规模将超越5000亿美元。 据记者了解,AMD本次发布的新产品包括数据中心AI芯片AMD Instinct MI350系列和全新AI软件栈ROCm 7.0,并预告明年将推出 AI芯片MI400系列和下一代"Helios"AI机架级基础设施。其中,MI350系列包括MI350X和MI355X两款GPU,二者均采用3nm工艺, 包含1850亿晶体管,配备HBM3E内存。前者采用风冷,后者采用更先进的液冷。对比前代的MI300X,MI350系列算力提升4倍,推 理速度快35倍。 苏姿丰称,自2年前推出Instinct MI300X,AMD每年都会推出新的AI加速器。通过推出MI350系列,AMD实现了Instinct系 ...
AMD(AMD.US)发布两代旗舰AI芯片欲叫板英伟达 大摩:MI400或成关键拐点
智通财经网· 2025-06-13 20:52
据悉,将于明年推出的数据中心AI芯片AMD Instinct MI400系列专为大规模训练和分布式推理而设计, 将FP4精度下峰值算力翻倍提升至40PFLOPS,FP8峰值性能达到20PFLOPS,搭载432GB HBM4内存, 内存带宽达到19.6TB/s,每GPU横向扩展带宽达到300GB/s,可实现跨机架和集群的高带宽互连,旨在 训练和运行拥有数千亿和万亿级参数的大模型。相比MI355X,MI400系列的性能提升高达10倍。 智通财经APP获悉,当地时间6月12日,全球第二大AI芯片供应商AMD(AMD.US)在AMD Advancing AI 大会上亮出其史上最强AI新品阵容——旗舰数据中心AI芯片、AI软件栈、AI机架级基础设施、AI网卡 与DPU,全面展露与英伟达(NVDA.US)掰手腕的雄心宏图。 此次AMD最新发布或预览的重点产品包括:数据中心AI芯片AMD Instinct MI350系列、数据中心AI芯片 AMD Instinct MI400系列(明年推出)、全新AI软件栈ROCm 7.0、下一代"Helios"AI机架级基础设施(明年 推出)。 对于此次AI新品发布,摩根士丹利表示,真正 ...
AMD甩出最猛两代AI芯片,全球首推432GB HBM4,OpenAI CEO现场夸
36氪· 2025-06-13 10:04
产品发布 - AMD在Advancing AI大会上发布史上最强AI新品阵容,包括旗舰数据中心AI芯片、AI软件栈、AI机架级基础设施、AI网卡与DPU,展现与英伟达竞争雄心 [1] - 重点产品包括数据中心AI芯片MI350系列和MI400系列,其中MI350系列采用3nm制程,集成1850亿晶体管,基于CDNA 4架构,搭载288GB HBM3e内存,内存带宽8TB/s,单GPU可运行5200参数大模型,FP4/FP6精度下峰值算力20PFLOPS,推理性能达上一代35倍 [5] - MI400系列专为大规模训练和分布式推理设计,FP4精度下峰值算力40PFLOPS,FP8峰值性能20PFLOPS,搭载432GB HBM4内存,内存带宽19.6TB/s,性能相比MI355X提升10倍 [7][9] 性能对比 - MI355X与英伟达B200/GB200相比,内存容量多60%,FP64/FP32和FP6精度下峰值性能翻倍,FP16/FP8/FP4精度下性能相当 [36] - 运行DeepSeek R1模型时,MI350系列推理吞吐量超过英伟达B200 [5] - 8卡MI355X平台总内存2.3TB HBM3e,内存带宽64TB/s,FP4/FP6精度下峰值算力161PFLOPS [39][41] 软件生态 - 全新AI软件栈ROCm 7.0推理性能提升4倍以上,训练性能提升3倍,支持主流模型Day 0级支持,首度支持Windows系统 [12] - ROCm 7引入分布式推理方法,与SGLang、vLLM等开源框架协作,运行DeepSeek R1 FP8精度时吞吐量比B200高30% [85][86] - AMD推出开发者云,提供即时访问MI300X GPU,预装流行AI软件,率先注册开发者可获得25小时免费积分 [92][93] 基础设施 - 下一代"Helios"AI机架级解决方案支持72块MI400系列GPU,FP4峰值算力2.9EFLOPS,HBM4内存容量、带宽等指标比英伟达Oberon机架高50% [14][19][21] - Helios集成EPYC "Venice" CPU、MI400系列GPU和Pensando "Vulcano" NIC,其中EPYC "Venice"采用2nm制程,基于Zen 6架构,最多256核 [21] - AMD剧透2027年将推出下一代机架级解决方案,集成EPYC "Verano" CPU、MI500系列GPU和Pensando "Vulcano" NIC [24] 行业趋势 - 数据中心AI加速器TAM市场将年增60%以上,2028年达5000亿美元,推理将成为AI计算最大驱动力,未来几年年增80%以上 [30] - 全球10大AI公司中有7家正大规模部署AMD Instinct GPU [34] - AMD设定2030年新目标:将机架级能效提高20倍,使目前需275个机架的AI模型能在1个机架内训练,运营用电量减少95% [118]