DeepSeek LLM V4
搜索文档
科技 - DeepSeek:以更少资源实现更多价值Tech Bytes-DeepSeek – Doing More With Less
2026-01-22 10:44
涉及的行业与公司 * **行业**:人工智能(AI)行业,特别是大型语言模型(LLM)领域,以及中国半导体设备与封装行业[1][5][9][10] * **公司**: * **AI公司**:DeepSeek(深度求索)[1][4][9][11] * **中国半导体供应链公司**:北方华创(NAURA, OW评级,目标价Rmb514.2)、中微公司(AMEC, OW评级,目标价Rmb364.32)、长电科技(JCET, EW评级,目标价Rmb49.49)[5] * **其他提及的AI模型/公司**:Qwen-3(阿里巴巴)、豆包-Seed-1.8、Kimi-K2、GLM-4.5、MiniMax-M2、ChatGPT 5.2[17] 核心观点与论据 * **AI发展新范式**:AI计算的下一个前沿可能不是简单地追求更大的模型,而是通过更智能的架构选择(如混合架构)来实现效率提升[1][9] * **DeepSeek的Engram技术创新**: * Engram模块通过将存储与计算解耦,将模型的静态记忆卸载到可扩展的查找系统(如商品化DRAM),从而减少对昂贵的高带宽内存(HBM)的依赖和基础设施成本[1][2][11][15] * 该技术引入“条件记忆”作为稀疏性的新维度,与混合专家模型(MoE)的条件计算协同工作,让AI仅在需要时使用内存,提高效率[2][11][18] * 其优势包括:在相同计算量和总参数量下获得更好准确性、优化计算与内存使用的U型曲线分配法则、通过处理局部固定模式来显著提升长上下文能力[20][24] * **对中国AI行业的意义**: * 过去两年,中国领先的AI模型在先进计算、硬件获取和训练规模受到显著限制的情况下,迅速缩小了与ChatGPT 5.2等前沿模型的性能差距,这主要依靠效率驱动的创新[10] * 中国AI发展正日益受到“约束诱导创新”动态的影响,对尖端硬件的有限访问加速了算法效率、系统设计和部署实用主义方面的进展[16] * 这一轨迹表明,中国AI的进步可能越来越不依赖于直接缩小硬件差距,而是依靠绕过硬件瓶颈的算法和系统级创新[21] * **性能与成本影响**: * **性能**:采用Engram的270亿参数模型显示出更强的基准测试性能和改进的长上下文处理能力[20];多个中国模型在MMLU、GPQA和SWE-Bench等标准化基准测试上取得了与全球前沿系统相当的分数,但计算成本仅为其一小部分[16] * **成本与资源配置**:基础设施成本可能从GPU向内存转移,因为计算适度的配置可能比纯粹的GPU扩展具有更好的性价比[3];一个1000亿参数的Engram(假设FP16/BF16下每个参数2字节)意味着至少需要约200GB的系统DRAM,而Vera Rubin系统每个CPU已有1.5TB DRAM[3][12] * **硬件依赖**:该技术为在不进行芯片对芯片匹配的情况下,经济地缩小与美国前沿模型的性能差距提供了可信路径,降低了对富含HBM的尖端加速器的依赖[21];下一代LLM V4很可能可以在消费级硬件(如RTX 5090)上运行[4] * **投资启示**: * 通过解耦内存与计算,中国正在构建不仅更智能、而且在结构上更高效的大型语言模型[5] * 中国AI市场规模仍只是美国的一小部分,但其支出和采用势头表明上行潜力可能被低估[5] * 继续看好中国内存和半导体设备本土化主题,并推荐相关公司[5] 其他重要内容 * **中国主要AI模型基准对比**:提供了截至2025年底至2026年初中国主要AI模型与ChatGPT 5.2在上下文长度、多模态、开源状态及MMLU、GPQA、编码(SWE-Bench)等关键基准测试上的详细对比数据[17] * **技术对比**:通过表格对比了嵌入缩放(Embedding Scaling, 如Engram)、检索增强生成(RAG)和KV缓存(KV Cache)在内存类型、位置、扩展维度、对FLOPs的影响和最佳适用场景等方面的区别[25][26] * **估值与风险**:报告包含了对北方华创、中微公司、长电科技三家公司的估值方法论(主要采用剩余收益模型)及具体的上行与下行风险假设[27][28][29][30][31][32][33] * **行业观点**:摩根士丹利对“韩国科技”行业给予“有吸引力”(Attractive)的行业观点[6][54]