DeepSeek——少即是多
Seek .Seek .(US:SKLTY)2026-01-26 10:49

涉及的行业与公司 * 行业:人工智能(AI)行业、半导体设备行业、存储供应链 [1][3][12] * 公司: * AI公司:DeepSeek [1][8][15] * 投资标的(中国半导体设备与存储主题):北方华创(超配,目标价人民币514.2元)、中微公司(超配,目标价人民币364.32元)、长电科技(平配,目标价人民币49.49元)[3] * 其他提及的AI模型/公司:阿里巴巴的Qwen-3、豆包Seed-1.8、Kimi-K2、智谱GLM-4.5、MiniMax-M2、OpenAI的ChatGPT 5.2 [17] 核心观点与论据 * AI竞争焦点转移:下一阶段的AI竞争焦点可能不再是追求更大的模型,而是转向更高效的混合式架构,以在硬件约束下实现更强的推理能力 [1][8] * DeepSeek Engram的技术创新: * 核心机制:通过将存储(静态记忆)与计算(动态推理)解耦,引入“条件式记忆”机制,将知识库卸载到独立的存储层(如CPU/DRAM),仅在需要时通过高效查找(O(1)时间复杂度)调用,避免不必要的GPU计算消耗 [1][9][11][15] * 关键优势: * 降低对HBM的依赖:减少对昂贵的高带宽内存(HBM)的需求,缓解中国在AI计算方面的存储瓶颈和硬件获取限制 [1][11][16] * 提升效率与性能:在相同计算量和参数规模下实现更高准确率,显著增强长上下文处理能力,因为注意力机制可以释放更多“带宽”用于全局建模 [16][18] * 优化资源配置:遵循U形曲线的容量分配规律,在计算与存储资源之间实现更优平衡 [18] * 降低成本:基础设施成本可能从GPU向存储迁移,中等计算量配置的性价比可能优于纯GPU扩容 [2] * 对中国AI行业的影响: * “约束催生创新”:由于在先进算力、硬件获取方面面临严格约束,中国AI公司选择了一条以效率驱动的创新路径(如稀疏混合专家MoE架构、Engram等),快速缩小了与全球前沿模型的性能差距 [8][14] * 性能对比:多款中国模型(如DeepSeek-V3.2)在MMLU、GPQA、SWE-Bench等基准测试中取得了与全球前沿系统(如ChatGPT 5.2)相当的成绩,而算力成本仅为后者的一小部分 [14][17] * 战略意义:中国AI的持续进步更取决于绕过硬件瓶颈,专注于算法和系统层创新,而非直接弥合硬件差距 [16] * 具体数据与需求影响: * DRAM需求提升:采用Engram架构,要在低成本下获得强大推理能力,最低需要约200GB的系统DRAM [2][10] * 系统DRAM配置增加:Vera Rubin系统中每颗CPU已配备1.5TB的DRAM,采用该架构预计将使每个系统使用的通用DRAM提升约13% [2] * 模型参数示例:一个100B(千亿)参数的Engram模块,在FP16/BF16精度下,对应的系统DRAM需求最低约为200GB [10] * 未来展望: * DeepSeek的下一代大模型V4将采用Engram记忆架构,可能在代码生成与推理方面实现明显跃升,并可能继续支持在消费级硬件(如RTX 5090)上运行 [2] * 关注V4能否实现关键基础性能目标,特别是在编码方面,以及具体硬件配置的推理成本比较 [2] 其他重要内容 * 投资逻辑:看好中国存储及半导体设备本土化主题,因为AI架构向存储与计算解耦方向发展,可能提升对存储和半导体设备的需求 [3] * 架构对比:Engram作为一种参数化记忆,与检索增强生成(RAG,非参数化)和KV缓存(临时性)在记忆类型、生命周期、访问方式、扩展性等方面存在差异 [22] * 免责声明与评级说明:报告为英文原版的翻译件,以英文原版为准 [4][5];摩根士丹利使用“超配”、“平配”、“低配”的相对评级体系,而非“买入/持有/卖出” [43][45];报告包含了详细的风险披露、估值方法、分析师认证及利益冲突声明 [24][25][27][28][30][35][36]

Seek .-DeepSeek——少即是多 - Reportify