ROCm 7

搜索文档
AMD与英伟达的差距正在缩小
36氪· 2025-08-28 10:18
AMD( NASDAQ:AMD ) 在过去六个月内飙升了 50% 以上。华尔街似乎终于意识到了这个关键事实:AMD 正在缩小与英伟达的差距。 首先,从技术层面来看 —— 这一点在二季度已经很明显了。既然技术差距在缩小,接下来 AMD 在市场份额上追赶自然顺理成章,估值方面也会如此。 在分析师看来,AMD 在未来两年有望翻倍。 AMD于 8 月 5 日公布了第二季度财报,营收超出预期,并上调了业绩预期。然而,数据中心业务的表现确实乏善可陈,同比增长仅为 14%。 | Segment revenue | | QIQ | YIY | | Q/Q | YIY | | --- | --- | --- | --- | --- | --- | --- | | (in $ millions) | Data Center | change | change | Client | change | change | | 52, ZD | 3,240 | -11.8% | 14.3% | 2,499 | 8.9% | 67.5% | | Q1 '25 | 3,674 | -4.8% | 57.2% | 2,294 | -0.8% ...
AMD与英伟达的差距正在缩小
美股研究社· 2025-08-27 20:08
AMD ( NASDAQ: AMD ) 在过去六个月内飙升了 50% 以上。华尔街 似乎终于意识到了这个关键事实:AMD 正在缩小与英伟达 的差距 。 首先,从技术层面来看 —— 这一点在二季度已经很明显了。既然技术差距在缩小,接下来 AMD 在市场份额上追赶自然顺理成章,估值方面也 会如此。在分析师看来,AMD 在未来两年有望翻倍。 AMD 于 8 月 5 日 公布了第二季度财报,营收超出预期,并上调了业绩预期。然而,数据中心业务的表现确实乏善可陈,同比增长仅为 14%。 | Segment revenue | | Q/Q | YIY | | QIQ | Y/Y | | --- | --- | --- | --- | --- | --- | --- | | (in $ millions) | Data Center | change | change | Client | change | change | | Q2 '25 | 3,240 | -11.8% | 14.3% | 2,499 | 8.9% | 67.5% | | 52, TD | 3,674 | -4.8% | 57.2% | 2,294 | ...
突破落地瓶颈,AMD Mini AI工作站峰会揭晓端侧AI实现新路径
36氪· 2025-07-10 22:58
行业趋势与峰会背景 - AI智能体加速普及,工作与生活方式正经历深刻变革,AI落地"最后一公里"成为核心难题[1] - AMD联合36氪举办"AMD Mini AI工作站行业解决方案峰会",聚焦"超大模型端侧部署",展示30款基于锐龙AI MAX+ 395处理器的设备,联合200+生态链伙伴[1] AMD战略与技术布局 - 端侧AI是产业战略性机遇,AMD将开放合作推动超大模型端侧规模化部署[2] - 锐龙AI MAX+ 395处理器采用CPU+GPU+NPU三合一架构:Zen5核心16核32线程 CPU、RDNA3.5 40CU GPU(性能媲美4060-4070独显)、50TOPS算力NPU[4] - 统一内存架构(UMA)支持96GB超大显存,可运行70B+参数模型及混合模态AI智能体[4] 行业应用案例 企业效率提升 - 模优优科技利用AMD大显存特性本地部署DeepSeek-V3及Qwen3-235B大模型,结合多智能体为投资决策团队提供安全高效的研报预处理方案[6] 个人生产力革新 - 首界科技推出"玲珑星核"AI主机,基于ROCm开源生态实现软硬件一体化AI体验,支持双机互联扩展为微型集群[8] 办公场景优化 - ChatExcel本地化方案使Mini AI工作站成为安全数据分析一体机,财务部门可通过自然语言交互完成复杂分析[10] 垂直行业赋能 - 无问芯穹为教育行业提供推理加速方案,Mizar引擎提升终端效率同时保障模型精度[10] - 清昴智能为家纺行业设计从设计到门店合规检查的一体化解决方案,保护敏感信息并提升效率[13] - 中科加禾打造家庭AI Hub,实现多模态大模型驱动的家庭智能中枢[15] 生态共建计划 - 启动"AMD Mini AI工作站赋能行业计划",系统性支持伙伴创新解决方案[17] - 魔搭社区设AMD专题赛道,鼓励开发者挖掘硬件潜力创造AI原生应用[21] - 推出ROCm 7开源AI软件堆栈,提升框架兼容性与开发工具链,构建开放生态[23] 产品与生态成果 - 锐龙AI MAX+ 395处理器具备工作站级性能:16核Zen5 CPU、40CU RDNA3.5 GPU、50TOPS NPU,是端侧部署超大模型的最优平台[25] - AMD已形成从硬件设备、模型调优伙伴到行业应用联盟的完整端侧AI生态[27]
摩根士丹利:AMD 人工智能进展活动 -MI350 表现尚可,但 MI400 才是更具长期潜力的转折点
摩根· 2025-06-16 11:16
报告行业投资评级 - 股票评级为Equal - weight(等权重),行业观点为Attractive(有吸引力),目标价格为$121.00,2025年6月12日收盘价为$118.50 [7] 报告的核心观点 - AMD按预期推出MI350,但市场焦点在明年的机架级MI400/450产品,若能交付或带来更大转变,但目前维持等权重评级 [2] - 现有云客户对AMD评价积极但未改变整体观点,市场份额情况在英伟达结束供应分配后仍不乐观 [4] - 虽7/10的大型AI公司使用AMD产品,但在客户中拓展份额能力是关键,AMD在云业务中可能在推理需求飙升时失去份额 [5][10] - OpenAI CEO评价提升了AMD AI营收预测可信度,但AMD仍需执行到位,MI400可能改变局面但有待验证 [11][9] - 公司执行产品路线图使其在较小研发预算下获得份额,AI生态系统采用需时间,AMD早期成功反映市场整体优势 [39] 根据相关目录分别进行总结 产品发布情况 - 正式推出基于CDNA 4的MI300系列,包括MI350和355产品,二者均有288GB HBM3E,拓展数据格式兼容性,MI355性能稍高但功耗预算更高,产品性能相比MI300X有显著提升,与英伟达部分产品相当 [12] - 更大亮点是MI400系列及新“Helios”机架架构,将于明年正式推出,2027年还有迭代版本,MI400系列硅片有432GB HBM4,性能有大幅提升 [13] - 软件方面,AMD持续投资软件生态系统,推出下一代ROCm 7和新的AMD开发者云,ROCm 7有性能提升和更多支持 [13] - 系统解决方案上,AMD为MI400系列GPU推出首个机架级架构,整体机架性能与英伟达产品相当且有内存优势,CPU将采用2026年“Venice” EPYC,系统可扩展至72个GPU,并集成新的UEC capable 3nm “Vulcano” NIC [14][15] 客户反馈情况 - 现有云客户(甲骨文、微软、Meta等)对AMD评价积极,Meta有扩大合作意向,但客户评论更多聚焦MI300或MI400系列,MI350似乎只是渐进式改进 [4] - 客户在财报电话会议中表示计算资源短缺,但AMD营收趋势显示客户在此期间减少了对AMD产品的使用 [4] - OpenAI CEO评价提升了AMD AI营收预测可信度,但不能据此判断12个月后的竞争格局 [11] 市场份额及营收情况 - 7/10的大型AI公司使用AMD产品,但AMD在最大客户中为Mi350系列实现增长有难度,可能低于2025年instinct 25%的同比增长预期 [5] - AMD在云业务中可能在推理需求飙升时失去份额,不利于看多观点 [10] 财务数据情况 - 2024 - 2027财年EPS分别为$3.33、$4.20、$6.12、$6.69,P/E分别为49.3、33.6、21.6、20.0 [7] - 摩根士丹利对AMD的$121目标价格相当于2026财年预期每股收益$5.49的约22倍,反映其从英特尔手中夺取更多份额,数据中心同比增长21%(AI增长约25%) [25] - 摩根士丹利估计与市场共识在销售/收入、EBITDA、净利润、EPS等方面存在差异 [38] 风险与机会情况 - 机会在于AMD继续执行产品路线图,在较小研发预算下获得份额,PC和Zen服务器份额因Zen采用增加而加速增长,服务器更新推动数据中心收入超预期,数据中心GPU表现超预期 [39][40] - 风险在于英特尔在2024 - 2025年的服务器CPU可能抑制AMD势头使其失去份额,AMD在图形领域份额被英伟达夺取,数据中心GPU表现不及预期 [40]
“强得不可思议!” 英伟达对手放大招
中国基金报· 2025-06-16 08:28
公司动态 - 超威半导体公司发布新一代AI芯片MI350X和MI355X 将于2024年三季度通过云服务公司提供 并计划2026年推出下一代产品MI400 [1] - 新产品性能宣称超越英伟达旗舰产品B200 在大语言模型测试中多项指标优于英伟达产品 [1] - 同等成本下数据处理性能最高可提升40% 计划以更低定价推出替代方案 [1] - 客户拓展取得进展 产品已获Meta 微软 甲骨文等巨头采用 覆盖十大顶尖AI企业中的七家 [1] - 发布全新开发平台ROCm 7 以开源模式免费开放 支持非超威芯片兼容适配 [4] 行业竞争 - 超威选择在英伟达三个月前举办发布会的同一场地公布发展规划 显示对抗意图 [1] - 英伟达仍占据AI芯片市场超70%的份额 在生成式AI领域保持绝对领先优势 [2] - 行业重心正从学习转向以推理为核心的数据处理模式 为超威提供提升竞争力机遇 [3] - 英伟达构建的CUDA生态系统构成壁垒 开发者黏性极强 [3] - AI芯片领域出现类似基础模型领域的竞争格局 挑战者通过技术开放方式发起挑战 [4] 市场反应 - OpenAI首席执行官盛赞超威新品性能强悍得不可思议 凸显公司行业地位提升 [2] - 市场对摆脱英伟达高价芯片依赖的需求强烈 [1] - 超威选择在生成式AI规模化发展阶段以低价产品发起挑战 [3]
AMD 推进人工智能:MI350X 与 MI400 UALoE72、MI500 UAL256——SemiAnalysis
2025-06-16 00:03
纪要涉及的公司和行业 - **公司**:AMD、英伟达(Nvidia)、AWS、Meta、OpenAI、x.A、微软(Microsoft)、甲骨文(Oracle)、字节跳动(ByteDance)、台积电(TSMC) - **行业**:半导体、云计算、人工智能 纪要提到的核心观点和论据 AMD新产品竞争力 - **M50X/M55X**:在中⼩型LLMs推理的每TCO性能上可与英伟达HGX B200竞争,但M55X⾮机架级产品,在尖端模型推理或训练上⽆法与英伟达GB200 NVL72抗衡;M55X功耗⾼1.4倍,但TFLOPS吞吐量仅⽐M50X快不到10%,实际性能优势预计超10%;M50X和M55X在BF1/FP8/FP数据类型纸⾯规格能与HGX B200抗衡,M55X FP性能⽐B200 FP快2.2倍,但实际受功耗限制[7][11][15][16][17]。 - **M00系列**:有望在202年下半年成为与英伟达VR200 NVL1竞争的机架级解决⽅案;虽未采⽤真正UALink技术,但其基于以太⽹UALink在纵向扩展带宽上可与VR200 NVL1的NVLink竞争,且⽀持72个逻辑GPU纵向扩展规模;AMD宣布开发者云服务将M00按需定价降⾄1. 美元/⼩时/GPU,或使租⽤AMD GPU具竞争⼒[8][11][12][13]。 - **M500 UAL25**:2027年末发布,将配备25个物理/逻辑芯⽚,⽽VR00 NVL57仅1个[13]。 市场与客户 - **超⼤规模企业与AI实验室**:AMD产品总体拥有成本和每TCO性能潜⼒获超⼤规模企业和⼤型AI实验室共鸣,订单势头强劲;AWS⾸次⼤规模采购并部署AMD GPU⽤于租赁;Meta开始⽤AMD训练,参与M55X和M00项⽬;OpenAI欣赏AMD发展态势,x.A将⽤AMD系统进⾏⽣产级推理;甲骨文计划部署 万台M55X;微软少量订购M55,对M00部署持积极态度[58][59][60][61][62][64][65]。 - **Neocoud租赁市场**:专注AMD的Neocoud服务商少,导致AMD GPU租赁价格⾼,削弱成本竞争⼒;M00X和M25X需达特定租赁价格才能与英伟达H200竞争;AMD通过回租算⼒激励Neocoud支持,构建低风险商业模式;开发者云推出降低M00X租赁价格,但默认配额设置待优化[67][68][69][70][74][75][76][77]。 软件与技术 - **ROCm软件**:AMD发布专注推理性能的ROCm 7,宣称推理吞吐性能相⽐ROCm 平均提升3.5倍,服务DeepSeek R1时相⽐Nvidia B200有1. 倍优势;支持分布式推理,支持vLLM、SGLang和m - d编排框架,但m - d缺乏KVCache管理器等功能;对Triton内核编写库支持提升,对字节跳动Triton Distributed感兴趣;整合Mooncake Transfer Engine和DeepEP未开源;推出开发者云平台与积分计划及Python包“rocm”[82][83][84][86][88][89]。 - **PyTorch持续集成与测试**:AMD为M55芯⽚在PyTorch添加持续集成和⾃动化测试;英伟达积极推动开源B200 PyTorch持续集成,承诺捐赠8台B200给PyTorch Foundation;英伟达应加⼤对Backwe PyTorch持续集成投⼊,将消费级GPU纳⼊持续集成体系[91][92][93]。 - **MLPerf训练基准测试**:AMD⾸次提交单节点Lama2 70B LoRA微调和BERT训练的MLPerf训练测试结果,应参与更多实际场景训练基准测试;AMD MLPerf运⾏指南易复现,与英伟达形成对⽐[94][95][96]。 竞争与市场格局 - **英伟达DGX Lepton**:其商业战略可能推动AI计算资源商品化,使客户在不同云平台迁移推理⼯作负载,吸引关注推理和⼩规模训练的⽤⼾;但引发Neocoud不满,为AMD创造合作机会;对终端⽤⼾提升总体拥有成本效益,实现体验标准化[37][38][40][41][42][45]。 - **M55X营销话术**:AMD将M55X宣传为“机架级解决⽅案”不实,其集体性能⽐GB200 NVL72差18倍,在专家混合模型推理和训练的全对全通信及2D并⾏策略的全规约操作中性能远低于GB200 NVL72[46][47][48][49][54][55]。 其他重要但是可能被忽略的内容 - **AMD GPU分区项目**:AMD将⼤量资源浪费在GPU分区项⽬上,客户⽆此需求,客户希望AMD为多节点推理提供更好⽀持[98][99][100]。 - **M55X制造工艺**:AMD优化M55X芯粒架构,调整布局优化⼩芯⽚间通信,节省功耗与⾯积,但使D堆叠良率更重要;基础芯⽚速度升级,内存控制器支持更快HBME;计算芯⽚XCD从台积电N5制程升级⾄NP节点,启⽤计算单元数量变化,布局⽅向改变[104][105][106][107][108][109][111][112]。