广发证券:AI服务器用DRAM成为下游最大增量应用环节 存储供给紧张态势有望持续
智通财经网·2026-01-26 16:54

单GPU配套DRAM容量与产能趋势 - 随着GPU架构迭代,单GPU可配套的HBM与CPU DRAM容量均显著上升 B200、B300、Rubin、Rubin Ultra单GPU对应的HBM容量分别为192GB、288GB、288GB和1024GB 对应的CPU DRAM容量分别为242GB、242GB、768GB和1536GB [1] - 由于采用TSV堆叠、BaseDie及先进封装工艺,HBM每bit所消耗的晶圆产能约为传统CPU DRAM的3倍 [2] - B200、B300、Rubin、Rubin Ultra单GPU对应的等效DRAM产能消耗分别提升至818GB、1106GB、1632GB和4608GB 分别增长20%、35%、48%、171% 呈现明显的代际跃升趋势 [2] DRAM行业供需格局分析 - 需求端:AI服务器正成为DRAM需求增长的最大下游应用 受益于AI服务器部署节奏加快,预计2026年DRAM需求增速为26% 若VR200出货量达1400万颗,对应DRAM容量需求约14.78EB [1][3] - 供给端:DRAM行业资本开支预计由2025年的537亿美元增至2026年的613亿美元 同比增长约14% 但新增产能集中在2027年及以后释放 [1][3] - 主要厂商新增产能释放节奏:三星计划在平泽P4L工厂生产1cDRAM,预计2026年开始量产 SK海力士预计于2025Q4投产的M15X晶圆厂专注于生产HBM和先进DRAM 美光预计新晶圆厂ID1将在2027年上半年启动晶圆投产 [3] - 2026年DRAM行业将呈现需求快速上行、供给释放滞后的结构性错配格局 AI驱动的DRAM供给紧张态势有望持续 [3] 行业价值与投资观点 - AI记忆的价值正从“费用项”转变为“资产项” 成为支撑上下文连续性、个性化与历史信息复用的底层能力 有望促进AI Agent等应用加速落地 [4] - 相关上游基础设施价值量、重要性将不断提升 [4]