DeepSeek V4模型技术升级与市场影响 - 公司正在推进新版本模型的灰度测试 这可能是V4正式亮相前的终极灰度版[1] - 新版本模型上下文长度从128K扩展至1M 接近提升10倍 知识库更新至2025年5月[1] - 新版本在复杂任务处理能力上已对齐Gemini 3 Pro及K2.5等主流闭源模型[2] - 内部初步测试显示 V4在编程任务中的表现已超越Anthropic Claude及OpenAI GPT系列同代模型[2] V4模型核心技术架构创新 - V4预计将引入mHC与Engram两项创新技术 从算法与工程层面突破算力芯片与内存瓶颈[2] - mHC全称为“流形约束超连接” 旨在解决Transformer模型在层数极深时信息流动的瓶颈和训练不稳定的问题[3][4] - Engram是一个“条件记忆”模块 设计理念是将“记忆”与“计算”解耦 静态知识被专门存储在可置于廉价DRAM的稀疏内存表中[6] - mHC技术通过改善训练稳定性和收敛效率 对冲国产芯片在互联带宽与计算密度上的代际差距[8] - Engram架构致力于重构内存调度机制 在HBM供应受限的背景下 以更高效的存取策略突破显存容量与带宽制约[8] V4模型对行业成本与竞争格局的影响 - 此次发布的关键意义在于进一步压缩训练与推理成本 为全球大语言模型及AI应用企业缓解资本开支压力提供可行路径[2] - 成本端的优化将有效激发下游应用需求 进而催生新一轮AI基础设施建设周期[8] - 在2024年底 DeepSeek的两个模型曾占据OpenRouter上开源模型Token使用量的一半以上[9] - 到2025年下半年 随着更多玩家加入 其市场份额已显著下降 市场从“一家独大”走向了“群雄割据”[11] 对下游应用与软件行业的潜在机遇 - 更强大、更高效的V4将催生更强大的AI智能体 AI智能体正从“对话工具”转型为能处理复杂任务的“AI助手”[12] - 能执行多任务的智能体需要更频繁地与底层大模型交互 将消耗更多Token 进而推高算力需求[12] - 模型效能的提升为领先的软件公司创造了价值 需要关注那些能率先利用新一代大模型能力打造出颠覆性AI原生应用或智能体的软件公司[12]
DeepSeek新模型来了?