Workflow
SRAM(静态随机存取存储器)
icon
搜索文档
存储芯片涨价或将贯穿全年,中国产业崛起成“胜负手”
上海证券报· 2026-02-25 07:59
行业核心观点 - 全球存储芯片市场正经历由AI驱动的超级景气周期,DRAM和NAND库存处于历史极低水平,价格持续上涨已成定局,预计涨势将贯穿2026年全年 [1][2] - 中国存储产业正加速崛起,其技术突破和产能释放有望成为影响全球存储格局、缓解供应紧张局面的关键力量 [1][6] 市场供需与库存状况 - SK海力士当前DRAM及NAND整体库存仅剩约4周,处于历史极低水平,所有类型客户均无法获得足额供应 [2] - 重复下单现象进一步推高了价格预期,2026年没有一家客户的需求能够完全得到满足 [2] - 供给增长受限,一方面由于AI大模型与高效能运算带来的真实需求井喷,另一方面由于存储芯片制造所需的无尘室空间扩张缓慢 [4] 价格走势与预测 - 自2025年第三季度起,存储市场开启涨价行情,SK海力士HBM3E报价上调15%至20%,DDR5 16Gb颗粒单月涨幅达102% [4] - 2025年11月起,SK海力士对全品类DRAM涨价,NAND闪存合约价同步上调10%至15% [4] - 2026年1月,SK海力士对全品类存储再度大幅涨价,涨幅在20%至60%不等 [4] - 业内人士普遍预计存储价格上涨核心周期将持续至2026年底,产业高景气度至少延续至2027年,HBM赛道价格拐点可能要到2028年初 [4] - 平安证券电子团队认为,考虑到AI持续高景气,本轮存储周期的强度和持续性有望超过上一轮 [5] 产品结构与厂商动态 - 为满足AI带动的高端存储强劲需求,SK海力士将产能向HBM、DDR5等高附加值产品倾斜,其2026年HBM产能已提前售罄 [2] - 标准型DRAM的极度短缺正大幅提升供应商议价权,公司正与主要客户讨论多年期长期合约以锁定未来供应与价格 [2] - 铠侠表示其2026年的NAND闪存产能已全部售罄,并预计NAND供应紧张局面将至少持续至2027年 [2] - SK海力士2025财年业绩创历史纪录,营业收入达97.15万亿韩元,营业利润为47.21万亿韩元,营业利润率高达49% [3] 中国存储产业进展 - 全球存储芯片供应短缺促使PC制造商(如惠普、戴尔、宏碁、华硕)考虑在其产品中采用中国芯片制造商生产的存储芯片 [6] - 中国存储行业已形成以长鑫科技(DRAM)、长江存储(NAND Flash)为龙头,配合多家利基型及中小容量存储芯片厂商的产业格局 [6] - 业界预测,在资本市场加持下,中国存储芯片产能有望在2026年下半年至2027年逐步释放,缓解全球供给紧张局面 [6] - 长鑫科技科创板IPO申请已于2025年12月30日获得受理,计划募资295亿元以提升其在DRAM行业的核心竞争力 [7]
SRAM,取代HBM?
36氪· 2026-01-12 14:12
文章核心观点 - 英伟达收购Groq事件引发了关于SRAM与HBM在AI推理时代技术路径的行业辩论,核心在于探讨不同存储技术在AI不同阶段(训练与推理)的适用性及未来共存格局,而非简单的替代关系[1][19] SRAM与HBM的技术特性对比 - **SRAM(静态随机存取存储器)**:速度极快(纳秒级,典型访问延迟约1ns),但容量小(几百MB),集成在处理器核心旁,无需刷新,访问确定性强,形象比喻为“衬衫口袋”[1][9] - **HBM(高带宽存储器)**:本质是3D堆叠的DRAM,容量大(几十GB),带宽极高,但访问延迟较高(典型约100ns),存在物理延迟,形象比喻为“大型仓库”[2] AI训练与推理阶段对存储的不同需求 - **AI训练阶段**:模型参数巨大(百亿至千亿级),计算强度高,数据复用率高,批处理(Batch Size)大,核心需求是容量第一、带宽第二,对延迟不敏感,是HBM的舒适区[3] - **AI推理阶段(特别是实时交互场景)**:延迟成为生命线,常为单次请求处理(Batch Size = 1),传统GPU依赖HBM频繁加载权重会引入数百纳秒延迟,导致性能剧烈下滑和不可预测性[4][6] Groq的LPU架构与SRAM优势 - **架构核心**:完全抛弃HBM作为主存,改用数百MB的片上SRAM存放模型权重,实现权重常驻[9] - **性能数据**:片上SRAM访问延迟仅为HBM的几分之一,片上带宽高达80TB/s[9] - **确定性优势**:SRAM提供确定性的低延迟(“每次都一样快”),这对自动驾驶、工业控制、金融风控等对延迟波动敏感的关键任务至关重要[14] - **案例表现**:在阿贡国家实验室的核聚变反应堆预测任务中,Groq架构在0.6ms内完成19.3万次推理,比NVIDIA A100性能高出600多倍[14] - **并行处理**:通过独特的同步计算与通信方法,高效利用指令级、内存级和数据级并行,支持Batch Size = 1的高性能处理,减少等待并提升准确性[10][11] SRAM作为主存的挑战与历史背景 - **历史定位**:SRAM长期仅作为缓存使用,过去无人将其作为主内存,原因在于其面积大、成本高、工艺缩放慢[8] - **缩放挑战**:在台积电5nm到3nm工艺演进中,逻辑晶体管缩小约1.6倍,而SRAM单元面积仅缩小约5%,导致其在芯片上占用面积比例增大、成本飙升[8] - **Groq的逆向思维**:利用先进制程下SRAM的高开关速度和确定性,在成熟节点(如14nm/7nm)设计,并计划向4nm/GAA架构演进,利用其改善的读写稳定性[9] 英伟达的视角与战略布局 - **黄仁勋的观点**:承认若一切能装入SRAM则无需HBM,但指出这会使模型尺寸缩小约100倍,SRAM存在面积大、成本高的致命伤,让千亿参数大模型完全运行在SRAM上需要成百上千颗芯片,成本与功耗将是天文数字[17] - **强调架构灵活性**:面对MoE、多模态、SSM等不断变化的模型,能够灵活切换压力点(NVLink、HBM或计算单元)的架构才是数据中心总拥有成本的最优解,通用性和灵活性是关键[17] - **收购Groq的战略意义**:旨在补齐“极致低延迟推理”的拼图,而非全面倒向SRAM,英伟达认为数据中心需要在有限的电力资源下优化整体利用率,而非仅为10%的特定任务进行极致优化[17] - **CPX技术的作用**:英伟达的CPX(计算与存储解耦/压缩)技术结合GDDR7或HBM,可在某些场景减少对昂贵HBM的依赖,但也会降低数据中心的灵活性[16][18] 行业未来趋势与投资启示 - **技术共存而非替代**:“SRAM取代HBM”是伪命题,真正的命题是“AI推理如何实现总拥有成本最优解”[19] - **市场分层化**: - 在追求极致速度的边缘侧(如AI眼镜、工业实时控制)和特定高性能推理场景,SRAM将通过ASIC架构蚕食HBM份额[19] - 在大规模数据中心,HBM依然是承载海量模型参数的基石[19] - SSD/NAND将负责模型分发、冷数据与长上下文存储扩展[19] - **投资关注点**:投资者应关注存储层级化带来的全面机遇,而非押注单一技术胜负,快(SRAM)有高成本与低密度的代价,慢(HBM)有高带宽与通用性的平衡,两者将在AI推理领域并肩而行[20]
SRAM,取代HBM?
半导体行业观察· 2026-01-12 09:31
文章核心观点 - 英伟达收购Groq事件引发了关于SRAM与HBM在AI推理时代技术路线的行业辩论,但“SRAM取代HBM”是一个伪命题,真正的核心是AI推理如何实现总拥有成本最优解[1][22] - SRAM的优势在于确定性、极低延迟和能效,适合边缘计算和实时推理场景;HBM的优势在于大容量和高带宽,仍是数据中心承载海量参数的基石;两者将在AI推理领域并存,形成存储层级化机遇[22][23] SRAM与HBM的技术特性对比 - **SRAM(静态随机存取存储器)**:是世界上最快的存储介质之一,访问延迟为1纳秒,但容量小(几百MB),成本高,面积大;如同“衬衫口袋”,伸手即得但空间有限[2][8] - **HBM(高带宽存储器)**:本质是3D堆叠的DRAM,容量大(几十GB),带宽极高,但访问延迟约为100纳秒;如同“大型仓库”,容量大门宽但存在物理延迟[2] - 两者根本区别在于,SRAM的访问延迟比HBM/DRAM“快一个数量级”(1ns vs 100ns),且具有确定性(每次都一样快)[9][16] AI从训练转向推理带来的存储需求变化 - **训练阶段**:模型参数达百亿甚至千亿级,计算强度高,数据复用率高,对容量和带宽需求大,延迟不敏感,是HBM的舒适区[4] - **推理阶段**:特别是在人机交互和实时控制场景,延迟成为生命线,需要处理Batch Size = 1(单次请求)的实时请求[4] - 传统GPU架构依赖HBM,在实时推理场景中频繁加载权重会导致数百纳秒的延迟,造成性能剧烈下滑,为掩盖延迟被迫增大批处理大小(如256个请求一起处理),导致响应不丝滑[4][7] Groq的LPU架构与SRAM技术路线 - **核心设计**:完全抛弃HBM作为主存储,改用数百MB的片上SRAM存放模型权重,访问延迟仅为HBM的几分之一[10] - **性能数据**:片上SRAM带宽高达80TB/s,在阿贡国家实验室的核聚变反应堆预测任务中,于0.6毫秒内完成了19.3万次推理,比NVIDIA A100性能高出600多倍[10][16] - **架构创新**:采用同步计算与通信方法,将计算与内存访问解耦,实现更高的内存级并行性,支持在Batch Size = 1下提供高性能和可预测的低延迟[11][13][14] - **工艺路线**:当前主要采用台积电14nm/7nm,计划走向4nm,在更先进制程下大规模SRAM的读写稳定性更高[9] 英伟达的视角与行业趋势判断 - **黄仁勋的观点**:承认如果一切都能装进SRAM则不需要HBM,但指出这会使模型尺寸缩小约100倍,成本与电力消耗将是天文数字,因此SRAM无法完全替代HBM[19] - **强调灵活性**:数据中心是有限的电力资源,需要能够灵活切换压力点(NVLink、HBM或计算单元)的架构来应对多变的模型(如MoE、多模态、SSM),以实现总拥有成本最优解[19] - **收购意图**:收购Groq旨在补齐“极致低延迟推理”的拼图,而非全面倒向SRAM;同时,英伟达也在研究通过CPX(计算与存储解耦/压缩)技术减少对昂贵HBM的依赖[18][19][20] - **集成度价值**:高度集成的统一架构(如更新一个模型库可提升所有GPU表现)比拥有17种零散专用架构更能优化整体数据中心的总拥有成本[20] 存储层级化与未来机遇 - **推理的重要性**:训练只发生一次,推理会发生数十亿次,如同“造发动机”与“上路开车”的区别,优化推理体验是“用量起点”[22] - **技术分工**:追求极致速度的边缘侧和特定实时推理场景,SRAM通过ASIC架构蚕食HBM份额;大规模数据中心中,HBM仍是基石;SSD/NAND则负责模型分发与长上下文存储[22] - **投资启示**:不应押注单一技术胜负,而应关注存储层级化带来的全面机遇,SRAM与HBM因其不同特性(快但有代价,慢但能平衡)将在AI推理领域并肩而行[23]
英伟达为何斥资200亿美元收购Groq
半导体行业观察· 2026-01-01 09:26
文章核心观点 - 英伟达以200亿美元获得Groq的知识产权非独家授权并吸纳其核心团队,实质上是为获取其创新的数据流架构技术,以应对未来AI芯片性能提升的瓶颈,并强化其在推理市场的产品布局 [1][2][10] 交易结构与实质 - 英伟达支付200亿美元,获得Groq语言处理单元及配套软件库等知识产权的非独家授权,Groq公司本身保持独立运营 [2] - 交易后,Groq首席执行官Jonathan Ross、总裁Sunny Madra及大部分工程人才加入英伟达,使Groq作为独立公司的长期生存能力存疑 [2] - 该交易结构被设计为授权而非收购,可能旨在规避监管审查,但其效果等同于收购并消除潜在竞争对手 [2] 关于SRAM与内存架构的探讨 - 一种猜测认为英伟达看中Groq LPU使用的SRAM,其速度比当前GPU使用的HBM3e快10到80倍,有助于应对内存短缺危机 [3] - Groq的LPU在Llama 3.3 70B测试中生成速度达350 tok/s,在gpt-oss 120B混合专家模型中可达465 tok/s [3] - 但SRAM容量小、空间利用率低,Groq单个LPU仅230 MB SRAM,运行Llama 70B模型需将574个LPU互连,而单个HBM3e堆栈容量达36 GB [4] - SRAM本身并非稀有技术,英伟达若想采用SRAM无需收购Groq,因此该猜测可能不成立 [4] 核心动机:数据流架构 - 英伟达收购的核心动机可能是Groq的“流水线架构”或可编程数据流设计,旨在加速推理中的线性代数运算 [5] - 数据流架构在处理数据时让其流经芯片,而非传统的冯·诺依曼架构的加载-存储操作,能消除GPU中内存或计算瓶颈 [6] - 该架构允许多个LPU协同工作,理论上能在相同功耗下实现更好的实际性能,且不限于SRAM,也可基于HBM或GDDR构建 [7] - 数据流架构实现难度大,但Groq已成功应用于推理,为英伟达提供了提升芯片性能的新技术路径 [7][8] 对英伟达产品战略的意义 - 英伟达现有“推理优化”芯片与主流芯片差异不大,而Groq提供了专为推理优化的计算架构 [8] - 英伟达计划2026年推出的Rubin系列芯片采用分散式架构,Groq的技术可能有助于优化推理流程中的预填充或解码阶段 [9] - Groq的LPU因其SRAM容量限制,不适合作为主要解码加速器,但可能适用于参数规模较小的推测性解码草稿模型,以提升系统性能 [9] - 收购有助于英伟达销售更多芯片和配件,且200亿美元对其而言是可承受的数额,其上季度运营现金流达230亿美元 [10] 对其他猜测的否定 - 关于交易能为英伟达开放三星等额外代工厂产能的猜测站不住脚,因英伟达此前已委托三星代工,且产能转移本身不依赖此交易 [11] - 英伟达可能不会对Groq当前一代LPU采取立即行动,此次交易更可能是为长远技术布局 [12]