文章核心观点 - 存储芯片市场在2024年达到1670亿美元历史新高 其中DRAM市场规模973亿美元 NAND Flash市场规模696亿美元 [4] - AI端侧设备如AI手机和AI电脑推动存储需求向高容量 高带宽 低功耗方向发展 LPDDR5或LPDDR5X成为主流选择 [9] - 存储芯片价格自2023年底触底回升 2025年上半年预计整体涨幅至少3%-5% 2025年下半年DRAM和NAND Flash因供应短缺持续涨价 [12][14] - HBM作为AI关键存储需求强劲 营收预计从2024年170亿美元翻倍至2025年340亿美元 HBM3E占2025年总需求64% [14][15] - 3D堆叠技术通过立体层叠实现更大容量和更快传输 成为满足AI存储需求的关键技术 国内企业如紫光国微 长鑫存储 长江存储已布局研发 [19] - 存储芯片产业链利润水平差异大 设计环节利润最高 封测和模组环节利润最低 下游需求中服务器和汽车领域加单较多 手机和PC需求疲软 [23] - 美光冻结报价并计划涨价20%-30% 海力士和三星分别涨价12%和22% 主要因AI需求导致产能紧张 [25] 存储芯片概述 - 存储芯片分为易失性存储和非易失性存储两大类 易失性存储断电后数据消失 如内存条 非易失性存储能保留数据 如U盘或固态硬盘 [5] - 易失性存储包括SRAM DRAM和HBM SRAM速度快但成本高 用于CPU缓存 DRAM速度较快容量大 用于智能手机 PC 服务器和AI计算 HBM通过3D堆叠实现高速度和带宽 用于AI加速器如GPU [6][7] - 非易失性存储以NAND Flash和NOR Flash为主 NAND Flash容量大成本低但写入速度较慢 用于SD卡 固态硬盘等 NOR Flash随机读取速度快 用于物联网设备 汽车CPU等 [8] AI端侧设备存储需求 - AI设备需要支持复杂数据模型运行 存储要求高容量 高带宽 低功耗 运行参数超过60-70亿的模型需DRAM内存容量至少14-15GB [9] - 存储带宽和速度不足会导致模型加载时间延长 影响用户体验 功耗控制关键因CPU在AI计算中耗电多 存储功耗高会提升整体能耗 [9][11] - AI设备中存储成本占比可能达硬件成本10%-20% 高于传统设备 [9] 存储芯片性能参数 - 带宽决定数据传输速度 高性能存储可达1TB/秒 低带宽成为AI训练和推理瓶颈 [10] - 延时指数据处理响应时间 低延时对实时场景如汽车自动驾驶重要 [11] - 容量不足会导致大模型无法运行 低端服务器至少需要128GB单条存储 [11] - 功耗需适应5V-6V低压 尤其对车载或移动设备关键 [11] - 寿命即擦写次数 超过后设备失效 对长期运行AI设备重要 [11] 存储芯片市场动态 - 2021年需求旺盛价格大涨 2023-2024年进入库存消化期价格低迷 2023年底价格触底回升 [12] - 2025年上半年整体涨幅至少3%-5% 2025年下半年DRAM交易放缓但DDR4价格反弹 NAND Flash价格Q3上涨 供应短缺可能持续到2026 [12][14] - 国内厂商长鑫存储和长江存储份额较小 全球市场由三星 海力士和美光主导 [10] 3D堆叠技术 - 3D堆叠通过立体层叠在有限空间实现更大容量 更快传输和更低功耗 分封装级和晶圆级 封装级已规模应用如HBM 晶圆级还在研发 [19] - 技术突破需改进材料 包括硅晶圆 靶材 光刻胶和电子特气 要求更高平整度 纯度 均匀成分和分辨率 [19] 存储芯片产业链 - 上游包括材料与设备 如ASML的光刻机 日本信越化学和SUMCO的硅片 国内沪硅产业 江化微 安集科技 [20] - 中游设计负责电路和性能定义 如兆易创新和北京君正 [20] - 中游封测与模组包括通富微电 长电科技 江波龙 朗科科技 [21] - 设计环节利润最高 技术门槛高溢价空间大 流片环节次之 封测和模组利润最低 [23] - 下游需求中服务器因AI数据中心扩张加单较多 汽车因智能驾驶需更多存储 手机和PC需求疲软增量有限 [23] 最新涨价情况 - 美光冻结报价并计划涨价20%-30% 汽车类涨价70% 闪迪涨10% 海力士5月涨12% 三星4月DDR4涨22% [25] - 涨价主要因AI需求导致产能紧张 包括代工厂挤占 [25]
聊一聊Memory--被低估的万亿赛道