从HBM到SSD:被严重低估的AI存储长周期逻辑

文章核心观点 - 当前AI存储需求被市场低估,尽管近期存储板块出现回调,但AI驱动的存储需求长周期依然强劲,其根本原因在于AI应用(尤其是多模态和Agent应用)对高速存储(如SSD)的消耗量远超传统认知,且AI正从根本上改变存储行业的商业模式和增长逻辑[1][3][13][14] AI用户对存储的需求测算 - 一个日均消耗1000万tokens的AI重度用户(Power User),每天会产生50到100GB的SSD存储需求,计算链条包括:40MB纯文本、30GB向量索引、会话状态、Agent日志及三副本复制[4] - 一个日均消耗100万tokens的普通用户,存储需求约为12GB,是重度用户的十分之一[5] - 并发用户的需求增长并非完全线性,因系统可通过“共享仓库索引”优化,但优化空间有限,特别是当应用从单一Agent转向多Agent协作时,存储压力会快速累积[5] - 编程类Agent(如Claude Code)因同时调用多个Agent(写代码、审查、测试、优化),其存储消耗远超普通对话应用[5] 多模态应用带来的存储挑战 - 从文本到音频,存储需求增长10倍;从音频到视频,再增长100倍;一分钟视频内容的存储体积是同等时长文本的10000倍[6] - 多模态应用(如截图分析、AI视频生成、自动驾驶)产生的数据体积庞大且均为需要快速读取的“热数据”[6] - 在AI推理场景下,所有需要实时响应的数据都必须存放在SSD上,无法使用价格低廉但速度慢的机械硬盘(HDD),HDD仅适用于冷归档数据[7] AI系统的存储层级结构 - 第一层 HBM:最顶层,直接焊接在GPU上,最贵、最快、容量最小,用于存储模型权重,例如一颗H100 GPU有90GB HBM[8] - 第二层 DRAM:服务器内存,容量是HBM的4到5倍,用于存储KV Cache等“短期记忆”[9] - 第三层 SSD:容量从1TB到15TB不等,是“长期记忆”的主力存储,用于RAG知识库、用户历史会话、Agent状态等[9] - 第四层 HDD:仅用于训练数据归档和冷备份,在推理环节基本不出现[10] - 一个万亿参数模型以INT4精度运行时,大致需要500GB HBM、700到800GB DRAM以及5TB SSD,以实现每秒1000 tokens的推理速度[10] - DeepSeek的engram和Google的TurboQuant等技术试图通过数据迁移或压缩来优化存储占用,但可能面临杰文斯悖论(效率提升导致总消耗增加)[10] 行业级存储需求预测与市场影响 - 根据JPM数据,预计2026到2027年,全球超大规模云服务商的SSD需求将达到200到300 EB(艾字节)[11] - 这200到300 EB需求构成包括:训练检查点占50%到60%,RAG数据湖占10%到15%,其余为数据复制备份及增长最快的多模态推理状态[12] - AI在存储市场中的占比将急剧提升:DRAM市场中AI需求占比将从2023年的9%升至2026年的37%和2028年的53%;NAND闪存市场中AI需求占比将从2023年的2%升至2026年的32%和2028年的41%[13] - 2024到2028年,AI DRAM市场的价值总规模(TAM)年复合增长率预计为105%,远高于非AI DRAM的51%[13] - 供给端存在约束,包括晶圆厂物理空间限制、HBM良率挑战、Agent应用爆发可能带来超预期需求,以及物理AI(机器人、自动驾驶)的存储需求远超软件AI[13] 存储行业商业模式的重构 - AI正推动存储行业从大宗商品模式向定制化解决方案模式转型,HBM、SOCAMM、eSSD等产品需要与客户深度绑定、联合设计[14] - 这种转变有望提升存储厂商的利润率中枢,熨平行业周期波动幅度,并重构行业的估值体系[14]

从HBM到SSD:被严重低估的AI存储长周期逻辑 - Reportify