翻完DeepSeek报告,我们发现了中国AI的默契
机器之心·2026-04-25 16:40

文章核心观点 - 中国两家AI公司DeepSeek和Kimi在技术发展上呈现出一种“竞合”关系,通过频繁的技术“偶遇”与相互借鉴,共同推动了中国大模型技术的快速进步,并构建了强大的开源基础设施 [3][4][5][8] - DeepSeek和Kimi不仅成功迈入万亿参数俱乐部并选择开源,还通过技术共享和生态建设,显著降低了企业部署大模型的门槛,并成为国际芯片厂商展示性能的标杆,推动了中国AI产业格局的形成 [2][21][22][28] 技术协同与相互借鉴 - 注意力机制共享:DeepSeek在V3中首创的MLA注意力机制被Kimi K2采用,该机制通过低秩压缩技术减少显存占用,使长上下文推理成为可能 [8][9] - 优化器技术跟进:Kimi在480亿参数的Moonlight模型上验证了Muon二阶优化器,并于2025年7月首次在万亿参数Kimi K2中大规模应用;DeepSeek V4随后也跟进了Muon优化器技术,提升了训练效率的稳定性 [12] - 架构对比:Kimi K2与DeepSeek-V3架构相似但规模更大,Kimi K2总参数量为1.04T,比DeepSeek-V3的671B高出54%,但激活参数量为32.6B,比后者低13% [11] 技术路线的差异化探索 - 残差连接方案:DeepSeek V4引入了mHC残差连接,提高了梯度流动效率,训练效率提升约30%;Kimi则提出了Attention Residuals(注意力残差)来优化信息流传递效率,获得了行业领袖的广泛认可 [14][16][17] - 长上下文推理路径:为解决长上下文成本问题,DeepSeek选择了稀疏注意力方案以降低计算量;Kimi则推出了线性注意力架构,将计算复杂度从O(n²)降至O(n),从理论上大幅降低成本 [20][24] 产业影响与生态建设 - 开源与成本革命:DeepSeek和Kimi将万亿参数模型全部开源,使得企业私有化部署成本降至原来的1/10,让中小企业能在自有服务器上运行万亿模型成为现实 [21][22] - 生态形成与国际认可:在OpenRouter平台上,两家公司的API调用量稳居中国前两名;Kimi被海外编程工具接入,DeepSeek被日本乐天集团包装成Rakuten AI 3.0;Meta和英伟达均将两家公司的模型作为性能对比的标杆 [22][25][28] - 国产芯片适配:DeepSeek V4深度适配华为昇腾芯片;Kimi的Prefill-as-a-Service方案提出跨数据中心异构硬件推理框架,实测吞吐量提升54%,首token延迟降低64%,为国产芯片进入推理链条提供了切入口 [27][29] 公司背景与行业地位 - 创始人背景:DeepSeek创始人梁文锋和Kimi创始人杨植麟均来自广东,是技术的狂热信徒,也被视为中国AI的国家队代表 [4][31][32] - 发展速度与定位:两家公司均于2023年起步,以极快速度成为百亿美金估值的“十角兽”,并保持精简而顶尖的人才配置;DeepSeek以“思维链”技术闻名,Kimi则在国内引领了“智能体”的落地 [31][32] - 行业意义:两家公司的技术互通与开源生态,展现了中国AI发展的真正底气在于技术火花的碰撞与互利共生,而非单打独斗,共同开启了中国大模型的“万亿级航海时代” [8][32][33]

翻完DeepSeek报告,我们发现了中国AI的默契 - Reportify