Workflow
Engram模型
icon
搜索文档
AI存算分离突破催化DRAM需求,数字经济ETF(560800)盘中涨1.27%
新浪财经· 2026-01-28 10:44
市场表现与行情 - 2026年1月28日早盘,半导体、芯片、晶圆产业板块拉涨,截至09:56,中证数字经济主题指数强势上涨1.23% [1] - 指数成分股圣邦股份上涨6.71%,兆易创新上涨6.11%,士兰微上涨5.81%,豪威集团、盛美上海等个股跟涨 [1] - 数字经济ETF(560800)上涨1.27%,盘中换手0.95%,成交539.51万元 [1] - 截至1月27日,数字经济ETF近1月日均成交2255.68万元 [1] 行业结构与指数构成 - AI浪潮正加速重塑半导体产业链结构,上游核心元器件领域呈现显著供给约束下的紧张格局 [2] - 中证数字经济主题指数选取涉及数字经济基础设施和数字化程度较高的应用领域上市公司证券作为指数样本 [2] - 截至2025年12月31日,中证数字经济主题指数前十大权重股分别为东方财富、寒武纪、中芯国际、海光信息、北方华创、兆易创新、汇川技术、澜起科技、中科曙光、中微公司,前十大权重股合计占比52.63% [3] 技术驱动与产业影响 - DeepSeek与北京大学联合发布的Engram模型提出“条件记忆”机制,将静态知识检索从复杂计算中分离,通过哈希查表实现O(1)时间高效访问,并支持将大规模参数表卸载至主机内存 [1] - 海通国际分析认为,该架构验证了“存算分离”的工程可行性,并将AI基础设施瓶颈从HBM进一步外溢至DRAM、互联带宽与分层存储体系 [1] - 该技术推动系统级设计能力与GPU算力并列成为关键竞争要素,尤其在高端显存受限背景下,为中国大模型提升“单位硬件产出”提供了可规模化落地的技术路径 [1] 供应链与市场格局 - AI加速芯片对台积电、三星等先进制程产能的优先占据,挤压了传统服务器CPU的产能空间 [2] - 存储原厂主动调整供应策略,推动NAND与DRAM价格出现显著波动 [2] - 在此背景下,掌握先进制造与核心技术的半导体厂商议价能力受到市场关注,算力与存储领域成为结构性机会的核心聚焦方向 [2]
DeepSeek发布DeepSeek-OCR 2模型,AI人工智能ETF(512930)开盘上涨
新浪财经· 2026-01-28 10:02
市场表现 - 截至2026年1月28日09:36,中证人工智能主题指数(930713)上涨0.64% [1] - 指数成分股中,同方股份上涨9.56%,瑞芯微上涨3.69%,光环新网上涨3.30%,晶晨股份上涨3.13%,豪威集团上涨2.79% [1] - AI人工智能ETF(512930)上涨0.54%,最新报价为2.4元 [1] 行业技术进展 - DeepSeek团队发布并开源DeepSeek-OCR 2模型,采用创新的DeepEncoder V2方法,使AI能根据图像含义动态重排图像部分,更接近人类视觉编码逻辑 [1] - 月之暗面Kimi正式发布新一代开源模型Kimi K2.5,该模型在HLE、BrowseComp、DeepSearchQA等多项agent评测中取得全球开源模型最佳成绩 [1] - DeepSeek与北大联合发布的Engram模型,通过哈希查表机制将静态知识检索从主干网络中剥离,可在O(1)时间内完成记忆调用 [2] - Engram-27B模型在MMLU、BBH等基准测试上系统性优于MoE基线,在长上下文任务中优势突出 [2] - Engram模型的确定性预取设计可将1000亿参数卸载至主机内存,推理吞吐损失控制在3%以内,为显存受限环境下的大模型高效部署提供可行路径 [2] 指数与ETF构成 - AI人工智能ETF紧密跟踪中证人工智能主题指数 [2] - 中证人工智能主题指数选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本 [2] - 截至2025年12月31日,该指数前十大权重股合计占比58.08% [2] - 前十大权重股包括中际旭创、新易盛、寒武纪、澜起科技、中科曙光、科大讯飞、海康威视、豪威集团、金山办公、浪潮信息 [2] - AI人工智能ETF(512930)设有场外联接基金,包括平安中证人工智能主题ETF发起式联接A(023384)、C(023385)、E(024610) [3]
DeepSeekEngram:把“回忆”交给查表,把算力留给推理
海通国际证券· 2026-01-27 16:50
报告行业投资评级 * 本报告为针对DeepSeek公司“Engram”技术模型的专题分析,未对特定行业或公司给出投资评级 [1] 报告的核心观点 * DeepSeek与北京大学联合发布的Engram模型,通过“条件记忆”机制将静态知识检索与复杂计算分离,在等参数和等计算量约束下,相比传统模型实现了系统性性能提升,并验证了“存算分离”的可行性,为AI基础设施需求结构带来潜在变革 [1][2][6] 技术原理与性能优势 * Engram模型的核心是引入“条件记忆”机制,将大量静态、可复用的知识组织成可扩展的内生记忆表,通过哈希查表实现O(1)时间的快速检索,从而让主干网络的计算资源更专注于深层推理与上下文理解任务 [1][2] * 在总参数量和训练计算量固定的约束下,将约20%的传统参数容量替换为条件记忆模块,能在知识密集型与复杂推理任务上取得显著效果提升,模型性能呈现先升后降的“U形”变化趋势,存在明确的最优区间 [3] * 在等参数、等FLOPs条件下,Engram-27B模型相比MoE-27B基线在多个核心评测中实现系统性提升,包括MMLU提升+3.0、BBH提升+5.0、HumanEval提升+3.0、MATH提升+2.4 [1][7] * 该模型在长上下文任务中表现尤为突出,在多项RULER子任务上显著优于基线,其设计通过将局部重复细节交给记忆查找,释放了主干网络对全局信息整合与长链条推理的专注能力 [1][4] 效率与成本效益 * Engram模型具备优异的训练与计算效率,在长上下文扩展实验中,仅消耗约82%的基线预训练计算量(41k vs 50k)即在部分困惑度指标上达到相当水平,同时在RULER任务上取得更高准确率 [4] * 该模型的可扩展性设计使其记忆容量可以低成本放大,由于每次仅检索固定数量的记忆条目,扩大记忆表规模不会带来计算成本的线性增长,为模型能力提升提供了高效益的扩展路径 [3] * 工程层面,Engram验证了“存算分离”的可行性,支持将大规模参数表卸载至主机内存,即使将规模达100B的记忆参数表卸载,其带来的额外推理开销也可控制在3%以内 [1][6] 对AI基础设施的潜在影响 * Engram的技术路径可能使AI基础设施的“瓶颈位置”从GPU的高带宽内存进一步外溢到DRAM、互联技术和存储系统,推动硬件需求结构从单纯依赖GPU显存扩展,转向“GPU算力、大容量系统内存与高效互联技术”的协同配置 [6][8] * CPU的角色将从“配角”走向“记忆与数据通路的关键节点”,通过确定性检索机制预取主机内存中的数据,与GPU计算重叠以掩盖延迟,端到端验证显示,在NVIDIA H800上将100B参数的Engram层完全卸载至主机内存,吞吐损失控制在3%以内(例如4B密集模型从9031.62 tok/s降至8858.28 tok/s) [6] * 该技术可能在中短期内强化对DRAM的需求弹性,若推动更多AI系统采用DRAM承载大规模静态记忆,可能提升单服务器的DRAM配置量与内存通道价值,同时互联带宽与分层存储体系的重要性将显著提升 [8] 对中国AI产业的意义 * Engram技术为中国大模型产业在高端显存/算力受约束的情况下,提高“每单位硬件的产出”提供了可行路径,其性能增益并非完全依赖硬件资源堆砌,而是通过架构层面的效率优化实现 [7] * 该技术为效率驱动的技术追赶提供了更清晰的路径,并有利于加速技术的规模化落地与产业扩散,特别是在国内政企私有化部署及成本敏感场景中,能以更少的GPU显存需求实现相当性能,提升部署可行性与商业化速度 [7] * DeepSeek已在GitHub同步开源相关论文与代码,大幅降低了产业界的验证、复用与二次开发门槛 [1][7]
闪迪暴涨背后:三大催化共振,NAND成“必需品”,AI 重估存储价值
华尔街见闻· 2026-01-23 11:41
文章核心观点 - AI体系结构演进正驱动存储(特别是NAND闪存)从“成本项”转变为“核心生产要素”,引发行业价值重估,这构成了近期存储板块(如闪迪股价涨幅超100%)上涨的根本原因,而非单纯的周期反弹 [1][10][11] 英伟达的硬件架构革新 - 英伟达CEO黄仁勋在CES 2026提出ICMS(推理上下文内存存储)概念,指出“上下文”正取代算力成为AI新瓶颈,因模型上下文窗口迈向TB级,KVCache等对HBM的挤占难以为继 [1] - 英伟达解决方案是将上下文从HBM卸载至独立存储机架,如在DGX Vera Rubin NVL72 SuperPOD架构中首次引入专用推理存储机架,通过DPU与以太网接入计算体系 [2] - 此架构变化带来显著NAND需求:每个SuperPOD新增NAND约9.6PB,折算至单个NVL72机架增量约1.2PB;若2027年以SuperPOD形态出货10万个NVL72机架,将对应120EB新增NAND需求 [2] - 这部分AI基础设施新增需求,在一个年需求约1.1-1.2ZB的全球NAND市场中,占比接近10%,是结构性新增需求 [3] DeepSeek的算法模型突破 - DeepSeek的Engram模型通过“确定性内存访问”技术,可在计算前根据输入token精确预取所需内存片段,从而有效掩盖SSD与HBM间的延迟差距 [4][5] - 该技术验证了大规模参数可卸载至主机内存:一个1000亿参数规模的嵌入表可完全卸载,且性能损失低于3%;随着模型规模扩大,20-25%的参数天然适合成为“可卸载的静态记忆” [7] - 这使得NAND首次被系统性地纳入分层内存体系,成为AI的“慢速RAM”,承载庞大低频知识库,其战略价值因在模型架构中具备“不可替代性”而被重新定价 [8] ClaudeCode引领的应用层变革 - ClaudeCode的爆发标志着AI从“无状态”对话工具向“有状态”Agent演进,其需要长期工作记忆以支持反复读取修改文件、多轮调试回溯、持续数天的会话状态 [9][12] - 这种“有状态系统”的工作记忆无法长期驻留于昂贵HBM,而BlueField DPU与NAND的组合提供了成本可控的解决方案,使Agent状态常驻NAND层 [9] - 随着AI Agent渗透率提升,存储需求函数将与推理调用次数脱钩,转而与“状态持续时间”挂钩,形成指数级放大的全新增长逻辑 [9] 技术路径汇聚与行业影响 - 三条原本分散的技术路径在2026年初汇聚:英伟达在硬件架构创造新场景,DeepSeek在模型验证可行性,ClaudeCode在应用放大刚性需求,共同构成AI体系结构变化的信号 [10][13] - 存储行业正同时具备周期复苏、长期需求及结构性价值重估三重驱动,其定价逻辑发生跃迁,市场开始重新评估AI时代真正的基础设施 [11]
DeepSeek:基于可扩展查找的条件记忆大型语言模型稀疏性的新维度技术,2026报告
文章核心观点 - 北京大学与DeepSeek-AI联合提出名为“Engram”的全新架构,通过引入“条件记忆”作为与“条件计算”互补的稀疏性维度,旨在解决当前Transformer架构缺乏原生知识查找原语的问题,从而在提升模型推理能力的同时,打破GPU显存对模型规模的物理限制 [2] 技术架构创新 - 研究指出语言建模包含组合推理与知识检索两类子任务,现有Transformer通过昂贵的运行时计算来重建静态查找表,浪费计算深度 [3] - Engram模块复兴并现代化了N-gram概念,通过对文本后缀进行哈希映射,以O(1)时间复杂度直接检索静态嵌入向量,相当于为模型外挂一个可瞬间查询的“知识库” [3] - Engram架构将“记忆”与“计算”解耦,通过在浅层网络直接检索静态知识,将主干网络解放出来以处理复杂的全局上下文和逻辑推理,从而有效地“加深”了网络 [5] 性能与效率发现 - 研究发现“稀疏性分配定律”,在固定总参数和训练计算量下,MoE专家与Engram嵌入的比例存在一条“U型”性能曲线 [4] - 将约20%至25%的稀疏参数预算分配给Engram模块,能在保持计算成本不变的同时显著降低验证集损失 [4] - 训练了一个270亿参数(27B)的Engram模型,在同等参数量和激活开销下,相比纯MoE-27B基线模型,在多项任务上取得全面超越:MMLU(+3.4)、CMMLU(+4.0)、通用推理BBH(+5.0)、代码生成HumanEval(+3.0)、数学解题MATH(+2.4) [4] - 在长文本处理上,Engram-27B在“大海捞针”等多查询检索任务中,准确率从基线模型的84.2%提升至97.0% [8] 系统工程与商业潜力 - Engram的检索机制是确定性的,允许系统在计算前一层网络时,异步地从主机内存(CPU RAM)中预取所需嵌入向量,实现计算与通信的重叠 [6] - 实验成功在少量GPU显存下,将一个1000亿参数(100B)规模的Engram表完全卸载到主机内存,仅带来不到3%的端到端推理延迟 [6] - 该架构可利用N-gram分布的齐普夫定律构建多级缓存层次,将高频知识保留在GPU显存,将长尾低频知识放入海量的CPU内存或SSD,为在有限硬件资源下部署超大规模模型开辟新路径,对降低大模型部署成本具有商业价值 [7] 行业意义与未来展望 - 该研究标志着大语言模型的稀疏性设计从单一的“计算稀疏”(MoE)迈向了“计算-记忆双重稀疏”的新阶段 [9] - 条件记忆有望成为下一代稀疏模型的标准配置,为未来万亿参数级别的模型提供兼具高性能与低成本的解决方案 [9] - 这预示大模型设计哲学可能从“大算力出奇迹”向“算力与记忆协同进化”的深刻转型 [9]