【招商电子】MemoryS 2026闪存大会跟踪报告:行业缺货或将延续至27年,关注未来存储技术创新重构
招商电子·2026-03-29 22:16

文章核心观点 AI正驱动存储行业发生结构性变革,存储从周期性产品转变为AI计算的战略资源和算力引擎的核心组成部分。AI推理的爆发式增长,特别是KV Cache带来的海量数据处理需求,正快速吞噬存储产能,导致供需严重错配,短缺预计将持续至2027-2028年。eSSD(企业级固态硬盘)因能承接从HBM/DRAM下放的KV Cache,并替代HDD解决产能缺口,成为2026年NAND最大应用市场。行业技术演进从微创新转向系统架构级重构,CXL、CIM、PNM及更高容量、更高性能的eSSD产品是未来2-3年的发展重点。在价格持续上涨与需求共振下,存储行业迎来业绩释放期。 根据相关目录分别进行总结 一、闪存市场:穿越周期 释放价值 - AI驱动存储行业定位根本性转变,从周期性成本项转变为数字经济的战略资源和核心竞争力 [15] - AI服务器存储需求是通用服务器的数倍,2026年AI服务器占比将突破20%,消耗全球超50%的NAND产能 [21] - 2026年全球半导体市场规模预计突破6000亿美元,存储行业进入全新黄金时代,市场呈现缺货、涨价、抢产能状态 [18] - 存储行业库存周转天数已跌至历史安全线以下的4周,供应短缺短期内难以缓解 [30] - 2025年四季度起存储价格迎来史诗级上涨,此轮为长周期上涨,不同于以往周期性反弹 [35] 二、三星电子:AI系统架构推进:驱动未来 AI 存储技术 - 2026年将推出首款支持CXL的存储产品PM1763,性能提升2倍,功耗效率提升1.6倍 [41] - 2026-2027年计划推出128层至361层的存储技术,通过EDSFF实现更高密度和容量 [43] - 优化存储控制器架构以应对AI环境下的高速数据处理需求,并降低产品厚度至9.5毫米以优化散热 [45][46] - 在存储产品中集成物理安全技术,即将推出的PM1760将完善机密计算架构 [52] 三、长江存储:以存强算,突破 AI 时代存力瓶颈 - 预计2026年全球半导体销售额首次突破1万亿美元,存储领域投资规模远超其他芯片类型 [61] - AI训练阶段故障间隔降至分钟级,导致大规模算力集群可用度仅约50%,凸显存储瓶颈问题 [67] - 2026年3月中国日均token调用量突破140万亿,近两年增长超千倍,AI agent的token消耗量是多轮对话的15倍,驱动存储需求 [67] - 推出PE501超大容量QLC SSD,容量达128TB,其128TB型号替代16TB HDD后可多养15-25倍的LLaMA模型 [73] - 公司从存储颗粒供应商成长为全面方案提供商,已形成满足AI场景的完整企业级SSD产品矩阵 [76] 四、铠侠:高性能、大容量--打造 Al 智存时代双引擎 - AI发展从训练转向推理阶段部署,长上下文推理使存储成为关键因素 [77] - 针对AI推理需求,推出具备高耐用性(3 DWPD)的企业级PE系列SSD,以及支持512字节细粒度随机访问的HBM扩展型SSD [81][86] - 推出容量高达245.76TB的QLC SSD,以应对AI和云服务的数据爆发需求 [88] 五、闪迪:闪存创新赋能全域 - 将AI市场视为相互关联的生态系统,需同时布局云(主干)与边缘(叶子)两大领域 [93] - 企业AI模型落地多采用实时注入自有数据至推理过程的方式,这驱动了向量数据库等高容量QLC存储需求 [96] - 计划推出新高密度CSC存储,并扩展高密度产品组合至第6代,以应对K-V缓存需求 [97] - 认为当前处于由AI云、AI基础设施、边缘AI设备驱动的存储行业超级周期开端 [103] 六、阿里云:千问大模型发展和演进趋势 - AI Agent(如“小龙虾”)具备自动规划与执行任务能力,其长期记忆和远程执行能力对存储要求高 [104] - 千问模型训练数据量从2T增至45T,训练阶段对存储效率要求显著提升 [106] - KV cache压缩技术可降低六倍消耗,但因模型参数和上下文长度飞涨,存储需求仍持续增长 [108] - 采用UMOE架构,将未激活模型参数卸载到flash,可在端侧设备(如64G MacBook)上运行大参数量模型 [108] 七、高通:引领智能AI创新 在端侧构建个人 AI 未来 - 将AI发展划分为感知AI、生成式AI、智能体AI、物理AI四个阶段,当前行业重点在生成式AI与智能体AI [109] - 端侧可运行的大模型参数量持续扩大,手机端可达100亿,PC端可达200亿,技术支撑包括存储容量提升和量化位宽优化 [112] - 端侧AI优势在于个性化、隐私保护和无网络依赖,但面临内存、带宽限制及能效比挑战 [115] - 个人AI演进方向是从“以手机为中心”迈向“以AI和用户为中心的多终端体验”,通过混合AI架构协同工作 [126] 八、慧荣科技:重塑存储定位,构筑 AI 时代核心引擎 - 存储缺货趋势加剧,2026年是缺货开始,2027年将是历史最糟,2028年仅能稍微缓解 [137] - AI需求真实,预计2027年仅NVIDIA Blackwell和Rubin相关业务规模就达1万亿美元 [143] - AI发展推动热存储从HDD快速向SSD转移,近GPU存储需3D SLC NAND,IOPS至少需1亿次/秒以处理小文件 [146] - 推出首款集成Caliptra 2.1安全功能的PCIe Gen6控制器SM8466,并调整业务模式从仅提供控制器转向提供解决方案 [151][156] 九、Solidigm: 夯实存储根基,拥抱 AI 时代 - 当前面临二十多年来首次由AI驱动的“memory winter”,需求增长远超行业供应能力 [165] - HDD将长期短缺,大容量低成本QLC SSD是良好替代方案,2024年为QLC应用元年,2025年QLC在几乎所有行业大规模使用 [166] - 2025年行业内80%的QLC份额出自Solidigm,全行业122TB企业级SSD 100%出自Solidigm [170] - 针对AI workload,探索用大容量QLC SSD部署大cache解决KV cache offload需求,例如128K token单次推理产生约61GB KV cache [173] - 推出行业首款单面冷板液冷盘D7-PS1010 SSD,功耗19.5瓦,并建立AI中央实验室进行技术测试与联合创新 [179][183] 十、英特尔:端云协同的 Al PC Open Claw 部署 - 推荐云-端混合AI部署模式,可节省云上算力、提升效率并保护本地数据安全 [194] - 最新酷睿Ultra 300系列产品AI算力较上一代提升80%,达到约180 TOPS,五年前需一台完整AI服务器实现 [197] - 采用XPU协同架构,核显、NPU、CPU分别提供约120 TOPS、5 TOPS、10 TOPS算力,以适配不同AI任务 [200] - 提供Open VINO工具链和AI Skills开放生态,支持开发者一站式调用异构算力 [202][205] 十一、江波龙:集成存储 探索端侧 Al - 端侧AI存储需求特点为大容量、高速度、小尺寸及定制化 [212] - 通过技术优化使Gen5 SSD可应用于占市场90%的笔记本场景,解决散热问题 [214] - 开发SPU存储处理单元,具备数据压缩等功能,成本不到企业级主控的1/10 [216] - 将手机VC散热技术应用到SSD,并将智能眼镜中的多个芯片整合为一个以缩小尺寸 [220] - 与AMD合作,通过AI调度将热模型放在SSD分层存储,实现用64G内存替代128G内存运行397B参数的大模型 [221] 十二、群联电子: 闪存"从价到值"的转变 - NAND价格剧烈波动,模组公司面临“买贵卖贵”困境,消费类业务已出现严重倒挂 [226] - 投资2.8亿美金研发PCIe Gen6主控,验证成本达9000万美金,支持244TB容量 [231] - 核心创新逻辑是用Flash补充DRAM不足,解决AI系统Memory瓶颈,相关产品已与全球PC OEM完成POC并开始上市 [231] - 2025年研发费用4.4亿美金,2026年预计7-8亿美金,以应对多颗新主控研发及认证压力 [233] - 内部AI平台(AI Nexus)已生成1800多个AI Apps,每月可节省19个人力,ROI负向快速收敛 [233] 十三、联芸科技:推理时代,重塑存储主控芯片价值 - 2026年是AI产业从训练为核心转向推理为核心的历史拐点,存储定位从算力“仓库”升级为“加速器” [236][239] - KV Cache技术导致数据量爆炸式增长,对存储随机读写性能和带宽提出极高要求,成为推理效率关键 [241] - 推出智能KV Cache技术,通过预测性预取、无感垃圾回收等,让主控芯片从被动数据搬运工升级为主动智能调度器 [247] - 通过技术创新,实现同性能下功耗下降约20%,低速场景功耗降低50%以上 [252] - 市场从卖“标准品”转向卖“客制化”方案,公司关注token生成速度和每美元生成token数等新价值指标 [253] 十四、宜鼎国际:垂直产业赋能,驱动边缘 Al 规模化落地 - AI应用分为企业级与产业级,2026年提出Edge AI闭环架构,存储发展方向从“高容量”转向与GPU加速系统深度协同 [265] - 大语言模型时代,SSD可承接从GPU卸载的KV Cache需求,是模型顺畅落地的关键支撑 [267] - AI推理场景下SSD的I/O特征与传统应用存在颠覆性差异,66%为顺序读,92%的I/O为128KB以上大区块 [269] - 基于实测打造两大差异化AI SSD系列,分别针对企业级和边缘AI场景,并重点布局AI领域的MCP协议以提供差异化应用方案 [272][274] 十五、平头哥: ZNS+QLC 技术赋能存储价值 - 2026年是AI从训练向推理转变的关键节点,数据中心转变为“token制造工厂”,AI Agent、Token、KV Cache引爆存储需求 [276] - AI生成数据在云端新增数据中占比已达1/4,且其中热数据与温数据合计占比超九成 [278] - QLC SSD对比HDD有高密度(存储密度达5倍)、高读性能(IOPS达1000倍)、低功耗(每TB功耗仅为1/2)三大核心优势 [279] - ZNS+QLC方案可提升性能、延长寿命(系统寿命提升3倍以上)、优化成本(减少OP空间和DRAM需求) [280] - 镇岳510芯片原生支持ZNS,最大支持单盘128TB,随机读性能达3400K IOPS,已发货超50万片并在阿里云规模化部署 [282][284] 十六、忆恒创源:以高性能 NVMe SSD,迎接 Al 时代训练、推理与海量数据的新需求 - 2025年企业级SSD发货量首次突破6000万片,较2023年行业低谷期增长300% [285] - 产品平均故障时间达1500万小时,大幅超过200万小时的行业标准,客户反馈已超过业界一线水平 [288] - AI场景下存储需求发生根本变化,需从适配CPU的“小货车”模式升级为服务GPU集群的“集装箱式物流”模式 [289] - 未来将形成PBlaze系列、DeepOcean系列(面向超大容量AI存储)和GPU直连系列三大产品线 [291] - 认为行业需警惕未来供过于求风险,穿越周期需保持平常心,不依赖AI风口 [293] 十七、大普微:AI竞逐下的存储跃迁 - AI革命推动存储从后端容器转向算力引擎的一部分,全闪存成为AI配套存储系统主流 [295] - 指出AI发展的三大存储瓶颈:数据供给不足、延时抖动、堆砌硬件导致成本失控 [297] - 产品布局包括X5系列Fast SSD(加速KV Cache卸载)、R6系列TLC SSD及目标512TB的大容量QLC SSD [299][302] - 技术创新包括全面配置FDP功能进行数据生命周期管理,以及应用透明压缩技术于KV Cache和模型权重以提升介质利用率 [303][305] 十八、FADU:突破存储边界:面向 AI 数据中心的新一代SSD - AI发展进入推理算力需求超过训练阶段,存储完全进入AI主架构,在推理服务器中SSD角色升级为扩展内存和实时工作层 [307] - 推理服务器数量是训练服务器的10:1甚至50:1,且对SSD需求更密集,典型配置为8到16片,预计两年内需配备32片 [309] - 公司第四代Gen6 SSD控制器(代号洛子峰)已流片,将于2026年5月回片;Gen7控制器(PCIe 7.0)将于2026年下半年启动研发 [311]

【招商电子】MemoryS 2026闪存大会跟踪报告:行业缺货或将延续至27年,关注未来存储技术创新重构 - Reportify