Ryzen AI Max 400 系列
搜索文档
苏妈和李飞飞炸场CES,AMD AI全栈野心显露:从云端到个人PC,AI芯片性能四年要飙1000倍
36氪· 2026-01-07 10:55
行业宏观展望与战略愿景 - AMD首席执行官苏姿丰判断,未来五年内将有50亿人每天使用AI,超过世界人口的一半,其增长速度远超互联网早期阶段,自ChatGPT在2022年底发布以来,AI活跃用户已从100万暴涨至10亿以上 [1] - OpenAI联合创始人Greg Brockman指出,计算能力是AI走向通用智能的最大瓶颈,世界需要的GPU数量远超现有规模 [3] - AMD的战略目标是补齐AI普及所需的算力基础设施,构建完整的AI版图,其愿景是“全球人工智能运行在云端,而云端运行在AMD平台上” [3] 数据中心与云端AI算力解决方案 - 发布面向YottaFLOPS级AI的下一代机架级平台Helios,单机架集成72块AI GPU,在FP4精度下算力高达2.9 ExaFLOPS,并搭载31TB容量的HBM4内存,可通过成千上万个机架互联构建超大规模训练集群 [3][8][9] - Helios平台的核心是新一代Instinct MI455 GPU,该芯片采用2nm与3nm混合工艺及3D小芯片封装,拥有超过3000亿个晶体管,相比MI300系列提升约70%,推理与训练综合性能最高可达10倍提升 [10] - MI455 GPU与EPYC服务器CPU、Pensando网络芯片深度集成,旨在解决大模型训练中的“内存墙”瓶颈,其设计的机架重量接近7000磅,超过两辆小型轿车的总重量 [10] - 下一代MI500系列AI加速器平台正在开发中,计划于2027年推出并全面转向2nm工艺,目标是在从MI300到MI500的四年周期内,将AI计算性能提升1000倍 [3][12] 终端与边缘AI:AIPC与本地AI - AMD推动AI从云端下放到本地,核心落点之一是AIPC(AI个人电脑) [4] - 推出Ryzen AI Max 400系列处理器(代号Strix Halo),面向AI开发者和高端创作者,最高配备12核CPU、更强的核显以及最高60 TOPS的专用AI引擎(XDNA 2 NPU) [14][17] - Ryzen AI Max 400采用统一内存架构,CPU与GPU可共享最高128GB内存,演示了在完全离线情况下流畅运行700亿参数医疗大模型的能力 [17] - 在高端笔记本形态下,其AI与内容创作应用表现快于最新一代MacBook Pro;在小型工作站场景中,成本明显低于英伟达的DGX Spark [18] - 发布本地AI参考平台“Ryzen AI Halo”,被称为世界上最小的AI开发系统,可在完全离线条件下运行多达2000亿参数模型 [22] AI技术前沿:空间智能与世界模型 - 苏姿丰与“AI教母”李飞飞同台探讨,认为AI正从语言智能迈向具备空间理解与行动能力的生成式AI,即空间智能(Spatial Intelligence) [1][23][25] - 李飞飞创立的World Labs正在训练新一代世界模型,目标直接学习3D/4D结构、空间关系及物理一致性,能够根据单张或几张照片补全被遮挡区域并生成几何一致的三维空间,将过去需要数月的3D场景建模缩短至几分钟 [26] - 世界模型需要极高的内存、大规模并行计算和快速的推理速度以实现实时响应,World Labs的模型已运行在AMD MI325X GPU与ROCm软件栈上,并在几周内实现了超过4倍的推理性能提升 [27] 其他新品发布 - 发布消费级显卡Radeon RX 9070和RX 9070 XT,均搭载RDNA 4架构及FSR 4等AI图像技术 [28][29] - RX 9070 XT在4K最高设置下,于30多款游戏中平均比RX 7900 GRE快42% [29] - RX 9070在30多款游戏中平均比RX 7900 GRE快21% [31] - 发布为AI数据中心时代打造的下一代服务器CPU EPYC Venice,采用2nm工艺,最多集成256个Zen 6核心,其内存带宽和GPU带宽相比上一代实现翻倍,并配套800G以太网,旨在高效调度数据以避免GPU空转 [33]
苏妈和李飞飞炸场CES!AMD AI全栈野心显露:从云端到个人PC,AI芯片性能四年要飙1000倍
AI前线· 2026-01-06 20:10
行业宏观趋势与愿景 - AMD首席执行官苏姿丰预测,未来五年内将有50亿人每天使用AI,超过世界人口的一半[3] - 自ChatGPT在2022年底发布以来,AI活跃用户已从100万暴涨至10亿以上,增长速度远超互联网早期阶段[3] - OpenAI联合创始人Greg Brockman指出,计算能力是AI走向通用智能的最大瓶颈,世界需要的GPU数量远超现有规模[7] - AI正从语言智能迈向具备空间理解与行动能力的生成式AI新阶段[37] AMD的AI战略与版图 - 公司旨在补齐AI普及所需的算力基础设施,让AI无处不在,算力人人可及[7] - 战略涵盖云端数据中心与本地终端(如AIPC)两大核心战场[9] - 公司提出“全球人工智能运行在云端,而云端运行在AMD平台上”的愿景[8] 数据中心与云端算力解决方案 - 推出下一代机架级平台Helios,单机架集成72块MI455 AI GPU,算力高达2.9 ExaFLOPS,并搭载31TB HBM4内存[7][14] - Helios采用开放OCP机架标准,强调模块化与可扩展性,可与Meta合作开发,数千个机架可互联成超大训练集群[13][15] - 核心芯片Instinct MI455 GPU采用2nm与3nm混合工艺及3D小芯片封装,晶体管数量超过3000亿个,相比MI300系列提升约70%[16][17][18] - MI455与EPYC服务器CPU、Pensando网络芯片深度集成,旨在解决大模型训练中的“内存墙”瓶颈[17][19] - 下一代MI500系列AI加速器计划于2027年推出,全面转向2nm工艺,目标在四年内(MI300到MI500)使AI计算性能提升1000倍[8][21][23] 终端与AIPC战略 - 推出Ryzen AI Max 400系列处理器(代号Strix Halo),面向AI开发者和高端创作者[25] - 该处理器最高配备12核CPU,集成专用AI引擎,最高算力达60 TOPS,并采用统一内存架构,CPU与GPU可共享最高128GB内存[27] - 演示显示,搭载Ryzen AI的设备可在完全离线情况下流畅运行700亿参数的医疗大模型[27] - 在高端笔记本形态下,其AI与内容创作应用表现快于最新一代MacBook Pro;在小型工作站场景中,成本明显低于英伟达DGX Spark[28] - 发布Ryzen AI Halo参考平台,称为“世界上最小的AI开发系统”,可在离线条件下运行多达2000亿参数模型[31] 空间智能与世界模型 - 与“AI教母”李飞飞同台探讨空间智能,认为这是连接“感知→推理→行动”的关键能力[5][36] - 李飞飞创立的World Labs已实现仅凭几张甚至单张图片,即可生成几何一致性、可导航的3D世界,将过去需数月的3D场景建模缩短至几分钟[37][38][39] - 世界模型需要实时响应与编辑,对算力提出极高要求,需极高的内存、大规模并行计算和快速推理速度[40] - World Labs的世界模型已运行在AMD MI325X GPU与ROCm软件栈上,并在几周内实现了超过4倍的推理性能提升[40] - 随着MI450等后续平台推出,更大规模世界模型的训练与实时运行将成为可能[41] 其他新品发布 - 发布消费级显卡Radeon RX 9070和RX 9070 XT,搭载RDNA 4架构及FSR 4等AI图像技术[43] - RX 9070 XT在30多款游戏中平均比RX 7900 GRE快42%;RX 9070在30多款游戏中平均比RX 7900 GRE快21%[45][47] - 发布下一代服务器CPU EPYC Venice,采用2nm工艺,最多集成256个Zen 6核心,内存与GPU带宽相比上一代实现翻倍,专为高效服务AI集群设计[49][50][51]