Kimi K2.6
搜索文档
计算机行业AI模型系列(三):DeepSeek V4 和 Kimi K2.6:性能跃升,国产算力适配加快
广发证券· 2026-04-26 21:42
[Table_Page] 跟踪分析|计算机 证券研究报告 [Table_Title] 计算机行业 AI 模型系列(三) DeepSeek V4 和 Kimi K2.6:性能跃升, 国产算力适配加快 [Table_Summary] 核心观点: | [Table_Grade] 行业评级 | 买入 | | --- | --- | | 前次评级 | 买入 | | 报告日期 | 2026-04-26 | [Table_PicQuote] 相对市场表现 [分析师: Table_Author]刘雪峰 SAC 执证号:S0260514030002 SFC CE No. BNX004 021-38003675 gfliuxuefeng@gf.com.cn 分析师: 吴祖鹏 SAC 执证号:S0260521040003 wuzupeng@gf.com.cn 分析师: 周源 SAC 执证号:S0260523040001 0755-23948351 shzhouyuan@gf.com.cn -4% 6% 15% 25% 34% 44% 04/25 07/25 09/25 11/25 02/26 04/26 计算机 沪深300 请注意 ...
通信行业周报:谷歌Next大会顺利举办,Deepseek发布V4大模型-20260426
国金证券· 2026-04-26 21:16
通信周观点: 1)谷歌 Next 大会顺利举办:A)Google 正式发布第八代张量处理单元(TPU)家族,推出 TPU 8t 与 TPU 8i 两款专 用化芯片,彻底打破了通用 AI 加速器的设计范式。B)谷歌 CEO 桑达尔·皮查伊表示,通过客户直接使用 API 的方 式,谷歌的模型每分钟处理超过 160 亿 tokens,而上季度是 100 亿 tokens。他预计到 2026 年,谷歌机器学习计算 总投资的一半以上将用于云业务。C)Anthropic 表示,谷歌承诺以 3800 亿美元的最新估值即刻投入 100 亿美元现 金。谷歌将在 Anthropic 达成业绩里程碑后再追加投资 300 亿美元,同时大力扩充 Anthropic 的算力规模。 Anthropic 是谷歌芯片和云服务的重要客户,而谷歌正大力拓展这些业务,以弥补其核心收入来源——搜索广告业务 增长趋于成熟的不足。谷歌云将在未来五年内为 Anthropic 提供 5 吉瓦的算力,从 2027 年开始陆续上线,后续还可 能追加数吉瓦。2)OpenAI 正式发布新一代图像生成模型 ChatGPT Images 2.0,官方将其定位为"从渲染工 ...
通信行业研究:谷歌Next大会顺利举办,Deepseek发布V4大模型
国金证券· 2026-04-26 18:24
通信周观点: 1)谷歌 Next 大会顺利举办:A)Google 正式发布第八代张量处理单元(TPU)家族,推出 TPU 8t 与 TPU 8i 两款专 用化芯片,彻底打破了通用 AI 加速器的设计范式。B)谷歌 CEO 桑达尔·皮查伊表示,通过客户直接使用 API 的方 式,谷歌的模型每分钟处理超过 160 亿 tokens,而上季度是 100 亿 tokens。他预计到 2026 年,谷歌机器学习计算 总投资的一半以上将用于云业务。C)Anthropic 表示,谷歌承诺以 3800 亿美元的最新估值即刻投入 100 亿美元现 金。谷歌将在 Anthropic 达成业绩里程碑后再追加投资 300 亿美元,同时大力扩充 Anthropic 的算力规模。 Anthropic 是谷歌芯片和云服务的重要客户,而谷歌正大力拓展这些业务,以弥补其核心收入来源——搜索广告业务 增长趋于成熟的不足。谷歌云将在未来五年内为 Anthropic 提供 5 吉瓦的算力,从 2027 年开始陆续上线,后续还可 能追加数吉瓦。2)OpenAI 正式发布新一代图像生成模型 ChatGPT Images 2.0,官方将其定位为"从渲染工 ...
计算机行业AI模型系列(三):性能跃升,国产算力适配加快
广发证券· 2026-04-26 17:24
[Table_Page] 跟踪分析|计算机 证券研究报告 [Table_ 相关研究: DocReport] | 计算机行业 AI 模型系列 | 2026-04-19 | | --- | --- | | (二):Anthropic 收紧 | | | Claude 准入限制,看好国产 | | | 模型与算力发展 | | | 计算机行业:国产算力调度运 | 2026-04-13 | | 营的机会 | | | [联系人: Table_Contacts]戴亚敏 021-38003697 | | DeepSeek V4 和 Kimi K2.6:性能跃升, 国产算力适配加快 [Table_Summary] 核心观点: | [Table_Grade] 行业评级 | 买入 | | --- | --- | | 前次评级 | 买入 | | 报告日期 | 2026-04-26 | [Table_PicQuote] 相对市场表现 [分析师: Table_Author]刘雪峰 SAC 执证号:S0260514030002 SFC CE No. BNX004 021-38003675 gfliuxuefeng@gf.com.cn 分析师: ...
国内外AI模型密集发布,关注AI3D生成能力进步
国联民生证券· 2026-04-26 16:56
传媒行业周报 20260425 国内外 AI 模型密集发布,关注 AI 3D 生成能力进步 glmszqdatemark 2026 年 04 月 26 日 本周行情 本周(2026 年 4 月 20 日-24 日)传媒指数下跌 2.69%,跑输沪深 300(+0.86%)、 深证成指(+0.37%)、创业板指(-0.29%)、上证指数(+0.7%)、上证中小 (+0.58%)。所有申万二级行业中,传媒涨幅位列第 29。传媒三级行业中,出版 涨幅最大(+0.01%)。 国内外 AI 模型密集更新,可用性进一步提升 近期国内外 AI 模型密集更新,大多聚焦代码与 Agent 能力。在 4 月 20 日-25 日 期间,国内外模型更新动作频频,国内月之暗面、阿里、腾讯、DeepSeek 和海 外 OpenAI 均发布了主力大模型的更新,代码能力、任务执行、上下文等能力成 为更新重点。 3D 生成能力持续迭代,AI 对物理世界认知加深 Seed3D 2.0 定位"更高精度、更强可用性"的 3D 生成大模型。相比 Seed3D 1.0,团队围绕几何精度和材质质量对模型进行了架构升级,并拓展了 3D 内容的 下游可用性, ...
传媒行业周报2026年16期:头部模型强势迭代,电影市场渐入佳境
国泰海通证券· 2026-04-26 13:45
头部模型强势迭代,电影市场渐入佳境 [Table_Industry] 传播文化业 传媒行业周报 2026 年 16 期 | [姓名table_Authors] | 电话 | 邮箱 | 登记编号 | | --- | --- | --- | --- | | 陈筱(分析师) | 021-38675863 | chenxiao@gtht.com | S0880515040003 | | 陈俊希(分析师) | 021-38032025 | chenjunxi@gtht.com | S0880520120009 | | 陈星光(分析师) | 021-23219104 | chenxingguang@gtht.com | S0880525040043 | | 李瑶(分析师) | 021-23185669 | liyao6@gtht.com | S0880525120001 | | 孙小雯(分析师) | 021-23154120 | sunxiaowen@gtht.com | S0880525040021 | | 赵旖旎(研究助理) | 021-23183268 | zhaoyini@gtht.com | S08801250 ...
翻完DeepSeek报告,我们发现了中国AI的默契
机器之心· 2026-04-25 16:40
文章核心观点 - 中国两家AI公司DeepSeek和Kimi在技术发展上呈现出一种“竞合”关系,通过频繁的技术“偶遇”与相互借鉴,共同推动了中国大模型技术的快速进步,并构建了强大的开源基础设施 [3][4][5][8] - DeepSeek和Kimi不仅成功迈入万亿参数俱乐部并选择开源,还通过技术共享和生态建设,显著降低了企业部署大模型的门槛,并成为国际芯片厂商展示性能的标杆,推动了中国AI产业格局的形成 [2][21][22][28] 技术协同与相互借鉴 - **注意力机制共享**:DeepSeek在V3中首创的MLA注意力机制被Kimi K2采用,该机制通过低秩压缩技术减少显存占用,使长上下文推理成为可能 [8][9] - **优化器技术跟进**:Kimi在480亿参数的Moonlight模型上验证了Muon二阶优化器,并于2025年7月首次在万亿参数Kimi K2中大规模应用;DeepSeek V4随后也跟进了Muon优化器技术,提升了训练效率的稳定性 [12] - **架构对比**:Kimi K2与DeepSeek-V3架构相似但规模更大,Kimi K2总参数量为1.04T,比DeepSeek-V3的671B高出54%,但激活参数量为32.6B,比后者低13% [11] 技术路线的差异化探索 - **残差连接方案**:DeepSeek V4引入了mHC残差连接,提高了梯度流动效率,训练效率提升约30%;Kimi则提出了Attention Residuals(注意力残差)来优化信息流传递效率,获得了行业领袖的广泛认可 [14][16][17] - **长上下文推理路径**:为解决长上下文成本问题,DeepSeek选择了**稀疏注意力**方案以降低计算量;Kimi则推出了**线性注意力**架构,将计算复杂度从O(n²)降至O(n),从理论上大幅降低成本 [20][24] 产业影响与生态建设 - **开源与成本革命**:DeepSeek和Kimi将万亿参数模型全部开源,使得企业私有化部署成本降至原来的1/10,让中小企业能在自有服务器上运行万亿模型成为现实 [21][22] - **生态形成与国际认可**:在OpenRouter平台上,两家公司的API调用量稳居中国前两名;Kimi被海外编程工具接入,DeepSeek被日本乐天集团包装成Rakuten AI 3.0;Meta和英伟达均将两家公司的模型作为性能对比的标杆 [22][25][28] - **国产芯片适配**:DeepSeek V4深度适配华为昇腾芯片;Kimi的Prefill-as-a-Service方案提出跨数据中心异构硬件推理框架,实测吞吐量提升54%,首token延迟降低64%,为国产芯片进入推理链条提供了切入口 [27][29] 公司背景与行业地位 - **创始人背景**:DeepSeek创始人梁文锋和Kimi创始人杨植麟均来自广东,是技术的狂热信徒,也被视为中国AI的国家队代表 [4][31][32] - **发展速度与定位**:两家公司均于2023年起步,以极快速度成为百亿美金估值的“十角兽”,并保持精简而顶尖的人才配置;DeepSeek以“思维链”技术闻名,Kimi则在国内引领了“智能体”的落地 [31][32] - **行业意义**:两家公司的技术互通与开源生态,展现了中国AI发展的真正底气在于技术火花的碰撞与互利共生,而非单打独斗,共同开启了中国大模型的“万亿级航海时代” [8][32][33]
DeepSeek V4登榜,全球开源前5都是中国模型了
第一财经· 2026-04-25 15:45
DeepSeek-V4与Kimi K2.6模型发布 - 2026年4月24日,沉寂15个月的DeepSeek发布并开源全新一代模型DeepSeek-V4,该模型搭载百万词元超长上下文,在Agent能力、世界知识、推理性能方面大幅提升 [1] - DeepSeek V4 Pro(Max)在Artificial Analysis智能指数开源模型榜单上相比上一代模型V3.2提升了10分,以52分的成绩进入全球开源模型前两位 [1] - 2026年4月,Kimi发布万亿参数开源模型Kimi K2.6,在Artificial Analysis智能指数上获得54分,是全球排名前五的开源模型中同时支持图片和视频理解的多模态模型 [3] 中美AI开源阵营的竞争与战略 - DeepSeek与Kimi在2025年1月至2026年4月期间,在推理模型、注意力架构、数学推理及万亿参数大模型迭代上多次发生技术发布“撞车”,显示出对AGI技术顶峰的同向追逐 [4] - 两家公司的连续技术“撞车”被视为中国开源AI阵营抱团突围、直面美国闭源巨头的战略默契,旨在以“技术共生、互利互惠”的模式改写全球AI格局 [4] - 在定价策略上,OpenAI的GPT-5.5定价为每百万输出token 30美元,而DeepSeek V4 Pro的输出定价仅为每百万token 24元人民币(约3.4美元),约为GPT-5.5的十分之一,形成价格优势 [11] 关键技术突破与性能表现 - 2025年1月20日,DeepSeek发布R1推理模型,Kimi发布K1.5多模态思考模型,两家公司均致力于通过强化学习实现Long-CoT推理,复现OpenAI-o1的核心能力,并因此被OpenAI官方论文点名 [6] - 2025年2月,DeepSeek发布NSA原生稀疏注意力,Kimi发布MoBA混合块注意力,两者均旨在解决Transformer长上下文成本爆炸问题,大幅降低KV缓存占用和注意力计算量 [7] - DeepSeek V4-Pro在数学、STEM和竞赛型代码的评测中超越所有已公开开源模型 [11] - Kimi K2.6在Humanity's Last Exam全工具测试中以54.0%的得分登顶,在DeepSearchQA深度检索中以92.5%的得分领先于GPT-5.4、Gemini 3.1 Pro和Claude Opus 4.6 [11] 市场影响与行业地位 - 根据OpenRouter数据,Kimi K2.6在发布后迅速跃居每日榜单榜首,与DeepSeek一起位居全球前五 [12] - Meta发布新模型Muse Spark时,官方博客选择DeepSeek和Kimi作为基准模型进行对比 [14] - 英伟达CEO黄仁勋在GTC2026大会的主题演讲中,使用Kimi K2.5模型来展示下一代Blackwell Ultra芯片的性能,将中国开源模型作为衡量下一代GPU的标杆 [16] 国产芯片生态支持与算力战略 - DeepSeek V4明确支持华为昇腾950芯片,华为宣布昇腾超节点全系产品已完成对V4的适配与支持,通过芯模技术协同实现高吞吐、低时延的推理部署 [15] - DeepSeek官方预计,下半年昇腾950超节点批量上市后,Pro服务的价格会大幅下调 [15] - Kimi K2.6支持国产芯片混合推理,其技术路线强调端侧和云端协同运行,降低对英伟达CUDA生态的依赖,并从K2 Thinking开始加入INT4量化技术以提升对国产加速芯片的兼容性 [15] - 华为昇腾官方平台已完成Kimi K2.5在昇腾AI上的部署,实现了多模态推理性能的全面跃升 [15] 核心技术创新细节 - 2025年4月,Kimi推出Kimina-Prover Preview数学推理专项模型,随后DeepSeek发布Prover-V2,两者均采用“自验证”路线以提升数学推理的准确性和可靠性 [7] - 2026年初,DeepSeek发布mHC流形约束超链接,系统性改造传统残差连接结构;两个月后,Kimi发布“注意力残差”技术,将Transformer的核心原理“注意力”重新应用到残差连接上,获得业界关注 [8] - DeepSeek V4的训练方案引入了Muon优化器,该技术由Kimi在2025年2月的论文《Muon is Scalable for LLM Training》中率先验证了其在480亿参数模型上的效果,并在万亿参数模型K2上继续使用和改进,实现了相同训练量下2倍的token效率提升 [8] - Muon优化器成为DeepSeek V4在架构层的三项关键升级之一,提升了训练稳定性 [9]
DeepSeek过于朴素了
虎嗅APP· 2026-04-25 11:17
文章核心观点 - DeepSeek V4模型的发布并未追求成为外界定义的“行业顶尖”或“榜单领先”模型,而是延续了公司一贯追求“性价比”和“效率”的核心路线 [4][6] - DeepSeek展现出一种“朴素”和“不着急”的特质,其发展节奏不受融资、商业化压力或市场情绪驱动,而是专注于解决底层技术效率问题 [4][8][22] - 尽管与Kimi在代码能力、长上下文等表面能力上存在相似性,但DeepSeek与Kimi等主流AI创业公司选择了截然不同的技术路线和商业逻辑 [9][13][21] - 在国产化替代方面,DeepSeek可能尚未完全切换至国产芯片进行核心训练,但其在工具链层面的改进为未来逐步摆脱对英伟达的强绑定奠定了基础 [24][25][29] - DeepSeek的定位更接近于其母公司幻方量化提升内部研究效率的基础工具,而非一门独立的生意,这决定了其独特的技术发展路径 [19][20] 根据相关目录进行总结 DeepSeek V4模型发布与市场反应 - 2025年4月24日,DeepSeek正式发布V4预览版,资本市场迅速反应,港股大模型板块中智谱与MiniMax股价盘中一度分别跌超10%和12% [4] - 过去一年,国产大模型(如智谱、MiniMax)首次被资本市场定价,市值一度冲破3000亿元,DeepSeek被行业投射为下一次行业变量 [4][5] - V4 Pro在世界知识类基准测试中已跻身全球前列,仅次于Gemini-Pro-3.1,综合性能开始逼近顶级闭源模型 [6] - 新模型V4原生支持1M(百万)上下文,并强化长链路推理能力 [12] DeepSeek的公司定位与技术哲学 - 公司气质“朴素”,不刻意刷榜、不考虑商业化、不优化用户体验,专注于充当“修路人”角色 [4] - 公司发展节奏不受融资、商业化压力和市场情绪推动,有更长的时间尺度去做“难而慢”的事 [8][20] - 核心追求是模型的“性价比”和“计算效率”,而非单纯追求榜单排名或成为大众理解的“行业顶尖” [6][18] - 公司背后的母公司是量化机构幻方量化,其文化天然强调效率、收益率与投入产出比,这深刻影响了DeepSeek关注大模型效率问题的技术路线 [19] DeepSeek与Kimi的技术路线对比 - 表面能力相似:两家公司都重视代码能力(Agentic Coding)、长上下文和复杂任务处理 [11][12][13] - 技术路线本质不同: - **Kimi**:采用线性注意力路线,核心思路是通过任务拆解、多智能体(Agent)协作来完成复杂任务,追求**token被消耗后的产出效率**,优化用户体验,接近“可交付的生产力工具” [14][15][17][18] - **DeepSeek**:采用混合注意力架构(Hybrid Attention),通过CSA和HCA对历史上下文进行分层压缩和选择性读取,追求**token本身的计算效率**,在系统层做“减法”以提升底层计算效率 [14][15][16][18] - 技术效果差异:面对同一复杂任务,Kimi的路线可能导致消耗更多token,因其涉及任务拆解、多轮调用等后台运算;而DeepSeek通过底层优化,在100万token场景下,V4-Pro的单token推理FLOPs降至上一代模型的27%,KV Cache占用降至10% [14][17] - 商业逻辑差异:Kimi作为标准AI创业公司,需要积极面对商业化、融资和增长;DeepSeek则更像是服务于母公司研究效率的基础工具,商业化压力较小 [20][21] 国产化替代进展 - 外媒曾预告DeepSeek将完全切换至国产模型训练以摆脱对英伟达的依赖,但V4技术报告未证实此消息 [24] - 更现实的路径是:**训练环节可能仍依赖英伟达芯片,而推理环节率先进行国产替代**。DeepSeek已验证其专家并行方案可在英伟达GPU和华为昇腾NPU上运行,完成了跨平台适配 [25][26][27][28] - 行业人士指出,若彻底切换至国产芯片训练,V4可能不会这么快发布 [29] - 工具链层面出现关键变化:从深度使用绑定英伟达生态的底层PTX语言,转向采用如TileLang这类领域专用语言,这有助于平衡开发效率与运行效率,并为未来适配不同芯片平台、逐步减少对英伟达的强绑定创造条件 [29] DeepSeek V4的技术重点 - 技术核心围绕“效率”提升,包括:采用混合注意力架构、进行KV Cache压缩、降低百万上下文推理成本、优化专家并行、设计跨平台Kernel等 [32] - 这些工程化改进旨在解决大模型当前存在的瓶颈,例如降低单位智能的成本,让相同能力消耗更少算力 [33][34]
DeepSeek和Kimi前后亮剑,联手撕开美国巨头护城河
财联社· 2026-04-24 20:13
中国AI大模型技术协同突破 - 一周内,中国头部AI公司DeepSeek与月之暗面(Kimi)相继发布并开源其旗舰模型DeepSeek-V4和Kimi K2.6,这标志着中国大模型产业正式进入向全球AI技术制高点集体冲锋的全新阶段,旨在协同挑战GPT、Claude、Gemini等美国闭源大模型巨头 [1] - 两家公司的技术突破形成了极强的互补协同效应,DeepSeek-V4聚焦于提升基础模型的核心能力,筑牢了全球开源大模型的性能天花板,而Kimi K2.6则深耕Agent工程化落地,解决长程自主执行的产业痛点,二者“一基一用”,共同构筑起中国大模型的技术护城河 [12] DeepSeek-V4模型核心性能 - DeepSeek-V4系列模型实现了基础能力的全方位突破,核心性能领跑全球开源领域,其搭载百万字超长上下文能力,并在Agent能力、世界知识储备、推理性能三大核心维度实现跨越式升级 [2] - 在Agent能力上,DeepSeek-V4-Pro相比前代模型实现质的飞跃,已成为公司内部员工主力使用的Agentic Coding模型,实测使用体验优于Claude Sonnet 4.5,交付质量已接近Claude Opus 4.6的非思考模式 [2] - 在硬核推理性能上,该模型在数学、STEM、竞赛型代码等专业测评中,超越了所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩 [2] Kimi K2.6模型核心性能 - Kimi K2.6模型在长程复杂任务执行与Agent工程化落地上取得突破性表现,率先实现了对海外闭源旗舰模型的局部赶超 [3] - 在最具产业价值的Agent调度能力上,Kimi K2.6可原生支持最多300个子Agent的派发、调度与结果归并,稳定完成4000步协同任务,调度上限较前代模型提升三倍,并可支持最长5天的持续自主运行,突破了大模型长程任务执行的瓶颈 [3] - 在全球权威基准测试中,Kimi K2.6表现持平或优于GPT-5.4、Claude Opus 4.6和Gemini 3.1 Pro等全球顶尖闭源模型,成为在HLE(含工具)和SWE-Bench Pro两大核心工程化基准上,同时超越三家海外闭源旗舰的开源权重模型 [3] 国产算力适配与突破 - 国产大模型开始战略性向国产算力底座迁移,DeepSeek-V4与华为昇腾950实现“顶级开源模型+头部国产芯片”的强强联合,这是DeepSeek首次在正式文档中将华为昇腾NPU与英伟达GPU并列写入硬件验证清单 [6] - 华为昇腾950通过技术优化,单卡推理性能达到英伟达H20的2.87倍,公司预计在下半年昇腾950超节点批量上市后,V4-Pro版本价格将大幅下调,公司还刻意将早期硬件访问权限优先授予华为等国产芯片厂商 [6] - Kimi K2.6的技术突破提供了另一套弹性思路,其发布的《Prefill-as-a-Service》论文显示,来自谷歌、亚马逊、华为及阿里平头哥等更多类型的芯片可切实用于大语言模型推理,通过分离预填充与解码阶段,有望推动异构计算规模化落地,为国产芯片大规模参与模型推理打开大门 [7] - DeepSeek与Kimi在国产算力上的布局形成互补,一个做“深”,将单一国产芯片潜力压榨到极致,另一个做“广”,让尽可能多的国产芯片参与推理 [7] 行业影响与全球地位 - 硅谷顶级风投的数据显示,美国创业者路演中使用中国开源AI模型的比例已高达80%,Hugging Face CEO也强调中国开源模型正在成为全球AI技术栈的最大力量 [12] - DeepSeek和Kimi的轮番发布,不仅展示了模型参数和评测分数的提升,更是一种宣言,表明中国开源力量已经具备了从跟随者变为规则制定者的底气 [12]