Workflow
Seek .(SKLTY)
icon
搜索文档
DeepSeek发布下一代技术,北大实习生立功
36氪· 2026-02-27 17:09
文章核心观点 - DeepSeek发布名为DualPath的全新推理系统方案,旨在解决大语言模型在智能体应用场景下因多轮、短追加交互导致的KV缓存存储I/O瓶颈 [1] - 该方案通过引入从存储直通解码引擎的双路径加载机制,聚合所有存储网卡带宽,重新分配网络负载,基本消除了KV缓存的I/O开销 [1][5] - 在真实测试中,该系统将离线推理吞吐量最高提升1.87倍,在线服务吞吐量平均提升1.96倍,并在1152张GPU上验证了近线性扩展能力 [1][17] 技术背景与问题 - **智能体I/O瓶颈凸显**:随着智能体应用普及,多轮推理导致上下文跨轮累积到极长长度,由于KV缓存命中率高达95%以上,加载效率取代计算成为性能主导因素 [3] - **传统设计成本高昂**:现有系统采用预填充-解码分离和外部KV缓存存储架构,但预填充引擎存储网卡带宽持续饱和,解码引擎带宽大量闲置,这种不平衡暴露了根本性低效,单纯增加预填充端带宽成本高昂 [3] DualPath解决方案架构 - **核心洞察**:打破“KV缓存加载必须以预填充为中心”的传统设计,增加存储到解码路径,将KV缓存先加载至空闲的解码引擎,再通过RDMA高效传输给预填充引擎 [5] - **三大核心组件**: - **推理引擎**:作为基础执行单元,每个引擎管理一个GPU,明确区分为预填充引擎和解码引擎 [6] - **流量管理器**:内嵌于每个引擎,统筹所有数据移动,采用以计算网卡为中心的流量管理策略,确保KV缓存流量不干扰延迟敏感的模型集体通信 [6] - **请求调度器**:作为中央决策单元,接收客户端请求并智能分发,动态决策每条请求采用传统路径还是新型路径,实现双路径间的流量均衡与全局负载优化 [7] 实现细节与挑战应对 - **具体实现**:在每个引擎预留DRAM作为缓冲区,数据传输采用分层流式方式,以缓解HBM容量压力并实现计算与通信的重叠 [9] - **系统无新增瓶颈验证**:通过建立流量模型进行系统性分析,在典型配置及可行的预填充/解码节点比例区间内,计算网卡、PCIe以及DRAM均不会成为瓶颈 [9][10] - **落地面临的三大挑战及对策**: - **细粒度数据传输**:通过分层流式执行解决 [11] - **流量隔离**:采用以计算网卡为中心的流量管理机制,利用硬件QoS能力进行优先级隔离,例如在InfiniBand中将模型推理通信映射到高优先级虚拟通道,KV传输映射到低优先级通道 [11][12] - **动态负载均衡**:采用两级自适应调度机制,在引擎间和引擎内实现负载均衡,避免资源过载 [12] 性能评估结果 - **吞吐量显著提升**:在DeepSeek V3.2 660B模型上,DualPath相较于内部基线推理框架最高实现1.87倍加速,性能接近假设零I/O开销的理论上限 [13] - **在线服务表现优异**:在智能体请求到达速率上显著优于基线,在DS27B和DS660B模型上分别达到1.67倍和2.25倍提升 [15] - **负载均衡改善**:调度算法将存储网卡负载均衡指标从1.53优化至1.18,并将注意力层最大/平均执行时间比控制在1.06以内,减少了GPU空闲气泡 [17] - **大规模可扩展性验证**:离线推理从2P4D扩展到48P96D实现近线性扩展,任务完成时间基本保持一致;在线服务中,44P88D配置在保持相似延迟的同时,将吞吐量提升22倍 [1][17][18] 行业影响与未来方向 - **行业影响**:该方案为业界处理大规模智能体推理任务提供了新的思路,是解决KV缓存I/O压力的一个值得关注的方向 [19] - **未来方向**:研究团队指出,下一步需要研究更自适应和更灵活的并行度和预填充/解码比例配置方法,例如模拟器或在线调整机制 [19]
DeepSeek 有新消息!
每日经济新闻· 2026-02-27 17:06
论文核心成果 - DeepSeek联合北大、清华发布论文,研究方向为提升大模型在实际应用中的推理速度,旨在为复杂的AI智能体提供高效的底层系统解决方案[3] - 论文介绍了一个名为DualPath的创新推理系统,专门针对智能体工作负载下的大模型推理性能进行优化[3] - 该系统通过引入“双路径读取KV-Cache”机制,重新分配存储网络负载,将离线推理吞吐量最高提升1.87倍,在线服务的每秒智能体运行数平均提升1.96倍[3] 技术背景与问题 - 大模型正从单轮对话机器人和独立推理模型,快速演进为能够自主规划、调用工具并通过多轮交互解决实际任务的智能体系统[3] - 应用范式的转变推动大模型推理工作负载发生重大变革:从传统的人类-大模型交互,转向人类-大模型-环境交互,交互轮次可达数十甚至数百轮[3] - 在智能体任务中,上下文会跨轮次累积,最终长度可能达到极值,此时模型需要频繁从硬盘读取历史上下文的KV-Cache[3] - 现有系统中,负责预处理的引擎网卡带宽被占满,而负责生成内容的解码引擎网卡带宽基本闲置,导致整个系统速度受限[3] 解决方案与价值 - DualPath系统针对智能体工作负载重新设计KV-Cache加载逻辑,解决大模型做智能体任务时速度被“数据读取”拖慢的核心问题[4] - 该方案的核心是把闲置的带宽资源利用起来,相当于给数据读取“多开了一条高速路”,从而实现速度的大幅提升[4] - 这一论文成果延续了DeepSeek一贯的风格,在工程化层面将性能优化推向极致[5] 市场传闻与产品动态 - 关于DeepSeek V4的发布时间,市场传闻从最初传闻的2月春节前后,到外媒最新报道的“最快下周”,再到业内人士预测的3月前后[5] - 外网有网友爆料称,DeepSeek正在测试V4 Lite模型,代号为“Sealion-lite”,上下文窗口为100万tokens,并原生支持多模态推理[5] - 有消息提及,DeepSeek已在近期将重大更新版本V4向华为等国内厂商提供提前访问权,以支持其优化处理器软件,确保模型在硬件上高效运行,但英伟达等厂商尚未获得类似权限[5] - 2月12日晚,多名用户反馈DeepSeek在网页端和APP端进行了版本更新,支持最高1M(百万)Token的上下文长度,而去年8月发布的DeepSeek V3.1上下文长度拓展至128K[6] 用户反馈与市场环境 - DeepSeek被大量用户吐槽风格突变,“变冷淡”,从原本细腻共情变为不称昵称、文风生硬,共情能力下降,相关话题于2月12日晚登上微博热搜[6] - 作为较早入局国内大模型赛道的玩家,DeepSeek凭借早期技术积累和差异化定位,曾在AI助手市场占据先发优势[6] - 随着字节跳动豆包、百度文心一言、阿里通义千问等巨头产品加速迭代,以及ChatGPT、Claude等海外强敌持续施压,国内AI助手赛道已进入白热化竞争阶段[6]
DeepSeek联合北大、清华发布新论文
财经网· 2026-02-27 16:04
公司技术进展 - DeepSeek团队联合北京大学、清华大学于2月27日发布了一篇聚焦于推理速度的学术论文 [1] - 论文介绍了一个名为DualPath的创新推理系统,专门针对智能体工作负载下的大语言模型推理性能进行优化 [1] - 该系统通过引入“双路径读取KV-Cache”机制,重新分配存储网络负载 [1] - 该技术将离线推理吞吐量最高提升1.87倍 [1] - 该技术使在线服务的每秒智能体运行数平均提升1.96倍 [1] 行业技术趋势 - 大语言模型推理性能,特别是在智能体工作负载下的优化,是当前重要的研究方向 [1] - 通过优化KV-Cache等底层机制来提升系统效率是行业内的关键技术路径之一 [1]
DeepSeek又一论文上新
第一财经资讯· 2026-02-27 15:58
公司研究:DeepSeek最新动态 - 公司团队联合北京大学、清华大学发布了一篇关于提升大模型推理速度的学术论文,而非发布备受期待的新一代旗舰模型DeepSeek V4 [2][4] - 论文提出名为DualPath的创新推理系统,通过引入“双路径读取KV-Cache”机制,重新分配存储网络负载,以优化智能体工作负载下的大模型推理性能 [4] - 该系统将离线推理吞吐量最高提升1.87倍,在线服务的每秒智能体运行数平均提升1.96倍 [4] - 该研究旨在解决大模型作为智能体执行任务时,因频繁从硬盘读取历史上下文的KV-Cache而导致速度被“数据读取”拖慢的核心问题,通过利用闲置的带宽资源来提升速度 [4][5] - 有行业观点认为,此类工程优化在降低成本、降低token费用方面具有价值,是AI走向大规模使用的关键 [6] - 关于DeepSeek V4的发布时间传闻多变,从最初传闻的2月春节前后,到外媒报道的“最快下周”,再到业内人士预测的3月前后 [6] - 近期有网络爆料称,公司正在测试代号为“Sealion-lite”的V4 Lite模型,上下文窗口为100万tokens,并原生支持多模态推理 [6] - 有消息提及,公司已在近期将重大更新版本V4向华为等国内厂商提供提前访问权,以支持其优化处理器软件,但英伟达等厂商尚未获得类似权限 [6] - 面对市场传闻,公司保持一贯沉默,未进行任何回应 [6] 行业趋势:大模型应用演进与系统优化 - 大模型正从单轮对话机器人和独立推理模型,快速演进为能够自主规划、调用工具并通过多轮交互解决实际任务的智能体系统 [4] - 应用范式的转变推动大模型推理工作负载发生重大变革:从传统的人类-大模型交互,转向人类-大模型-环境交互,交互轮次可达数十甚至数百轮 [4] - 在智能体场景下,上下文会跨轮次累积,最终长度可能达到极值,导致模型需要频繁从硬盘读取历史上下文的KV-Cache,而非进行大量计算 [4] - 现有推理系统中,负责预处理的引擎网卡带宽被占满,而负责生成内容的解码引擎网卡带宽基本闲置,导致整个系统速度受限 [4] - 部分投资机构担忧,新一代模型的发布可能如同去年版本发布时那样,引发市场的剧烈震荡 [6]
DeepSeek又一论文上新!新模型V4更近了?
第一财经· 2026-02-27 15:01
论文核心成果 - 研究核心为解决大模型在智能体应用场景下的推理速度瓶颈,通过优化底层系统提升效率 [3] - 提出名为DualPath的创新推理系统,专门针对智能体工作负载下的大模型推理性能进行优化 [3] - 系统通过引入“双路径读取KV-Cache”机制,重新分配存储网络负载,将闲置的带宽资源利用起来 [4] 性能提升数据 - DualPath系统将离线推理吞吐量最高提升1.87倍 [3] - 系统使在线服务的每秒智能体运行数平均提升1.96倍 [3] 行业应用背景与挑战 - 大模型正从单轮对话机器人快速演进为能够自主规划、调用工具并通过多轮交互解决实际任务的智能体系统 [3] - 应用范式转变推动推理负载从传统人机交互转向人类-大模型-环境交互,交互轮次可达数十甚至数百轮 [3] - 智能体场景下上下文跨轮次累积,长度可达极值,导致系统频繁从硬盘读取历史上下文的KV-Cache [3] - 现有系统瓶颈在于负责预处理引擎的网卡带宽被占满,而负责生成内容的解码引擎网卡带宽闲置 [3] 技术方案价值 - 解决大模型执行智能体任务时速度被“数据读取”拖慢的核心问题 [4] - 工程化层面的极致性能优化,有助于降低AI使用成本,推动AI走向大规模应用 [5] 市场动态与传闻 - 外界更关注DeepSeek新一代旗舰模型DeepSeek V4的发布,市场传闻发布时间几经更迭,从2月春节前后到“最快下周”,再到3月前后 [5] - 有外网爆料称DeepSeek正在测试代号为“Sealion-lite”的V4 Lite模型,上下文窗口为100万tokens,并原生支持多模态推理 [5] - 有消息提及DeepSeek已在近期将重大更新版本V4向华为等国内厂商提供提前访问权,以支持其优化处理器软件,但英伟达等厂商尚未获得类似权限 [5] - 面对传闻,公司保持一贯沉默,未进行任何回应 [6] - 市场已进入“严阵以待”状态,部分投资机构担忧新一代模型发布可能引发市场剧烈震荡 [6]
【大涨解读】华为产业链:华为加码AI编程,DeepSeek也有望率先适配国产芯片,昇腾有望成为AI算力“第二选择”
选股宝· 2026-02-27 11:12
行情表现 - 2月27日,华为产业链相关股票大涨,华胜天成实现2连板,格尔软件、新炬网络、拓维信息等多只股票涨停 [1] 核心事件:华为发布AI新产品与生态进展 - 2月26日,华为云码道公测版发布,提供集代码大模型、IDE、自主开发模式于一体的智能编码解决方案,覆盖多类AI Coding技术,并接入GLM-5.0、DeepSeek-V3.2及华为自研模型,包含鸿蒙专属模型 [4] - 同日,DeepSeekV4Lite模型测试效果大幅提升,支持1百万(1M)上下文及原生多模态,首批示例传播广泛,目前正由华为等芯片厂商进行测试 [4] - 2月24日,华为董事长梁华表示,已有43个业界主流大模型基于昇腾进行预训练,超过200个开源模型适配了昇腾生态,并推动了超过6000个解决方案落地 [4] 行业趋势与市场空间 - AI编程通过大模型赋能,正重塑核心生产力方式,其价值体现在提升软件开发效率与质量、降低技术门槛以及加速项目迭代周期 [4][5] - 大模型编程能力显著提升,正推动AI编程工具从Copilot(辅助)模式向Agent(智能体)模式演进 [5] - 根据GrandViewHorizon的数据,2024年全球AI代码工具市场价值为61亿美元,预计到2030年将达到260亿美元 [5] - 国产AI模型公司与国产AI芯片企业深度耦合已成趋势,例如DeepSeek-V3.2-Exp发布时,华为昇腾实现了Day0支持,并基于vLLM/SGLang等推理框架完成适配与部署 [5] 技术进展与产品规划 - 华为昇腾芯片计划在未来三年推出多个系列产品:昇腾950PR/950DT计划于2026年一季度上市,昇腾960计划于2026年四季度上市,昇腾970计划于2027年四季度上市,目标是以每年算力翻番的速度持续提升性能 [5] - 在超节点方面,华为发布的384超节点,在多项关键指标上实现了对英伟达旗舰产品GB200 NVL72的超越 [6] - 华为昇腾硬件使能软件层CANN已全面开源开放,其计算架构可对标英伟达CUDA核心软件层,旨在通过软硬件对标,成为全球AI算力的第二选择 [6]
打破惯例!DeepSeek V4优先适配国产芯片,云计算ETF(159890)盘中拉升获资金抢筹超6600万
搜狐财经· 2026-02-27 10:46
市场表现 - 2月27日,国产算力链相关板块表现强势,云计算ETF(159890)开盘拉升涨超1%,盘中涨幅为0.74% [1] - 相关成份股表现活跃,拓维信息强势封涨停板,云天励飞大涨13%,网宿科技、润和软件涨超6%,拓尔思、光环新网、汉得信息、中国软件等多股跟涨 [1] - 云计算ETF(159890)盘中净流入超6600万元,近5日累计获净申购约5890万元,规模累破前高 [1] - 截至发稿,云计算ETF(159890)报价为1.898元,当日上涨0.014元,涨幅0.74% [2] - 该ETF近120日涨幅为10.93%,近250日涨幅为38.64%,但近5日和20日分别下跌1.20%和1.91% [2] 核心催化事件 - DeepSeek最快或于下周发布V4“海狮轻型版”,支持100万token,原生具备多模态处理能力 [3] - DeepSeek V4打破了“向头部芯片商开放预发布测试”的行业惯例,未向英伟达等海外芯片龙头提供访问权限,而是优先向国内算力供应商开放优化,给予数周时间进行底层适配与优化 [3] - 此次V4以国产芯片为基准原生适配,标志着国产算力产业链从过去的“可用”正式走向“规模商用”,有望扭转国产芯片“有算力无生态”的困境 [3] 行业需求与趋势 - 2026年春节期间,国产大模型token调用量井喷,截至2月22日此前一周的全球大模型token用量中,前三甲均为国产大模型 [4] - token的爆发式增长,本质上反映出AI推理需求的指数级扩容 [4] - 国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导 [4] - 春节前后大模型行业发生较大变革,在新模型发布、AI应用深化与模型定价都发生了事件级变化 [4] - 算力涨价成为新迹象,凸显算力供应瓶颈,算力产业链有望持续受益 [4] 产品结构与投资机会 - 云计算ETF(159890)跟踪中证云计算与大数据主题指数,持仓兼顾AI算力(41%)与AI应用(32%)两大核心环节,人工智能+含量为41% [5] - 该指数前十大重仓股包括科大讯飞(权重9.55%)、润泽科技(6.19%)、金山办公(5.17%)、浪潮信息(4.52%)、中际旭创(4.51%)、新易盛(4.28%)、中科曙光(4.08%)、紫光股份(3.82%)、网宿科技(3.60%)和恒生电子(3.35%)等软硬件龙头 [5][6] - 由DeepSeek引领的国产算力生态重构浪潮,有望推动产业链从“被动适配”走向“主动定义” [6] - 投资者或可借道云计算ETF(159890)系统布局国产算力与AI应用的协同发展机遇 [6]
DeepSeek新论文剧透V4新框架,用闲置网卡加速智能体推理性能,打破PD分离瓶颈
36氪· 2026-02-27 10:29
核心观点 - 北京大学、清华大学等机构的研究人员发布了一种名为DualPath的全新智能体推理框架,旨在解决大模型长文本推理中的I/O瓶颈问题,通过创新的双路径加载和全局资源池化技术,显著提升了推理性能[1][3] 技术原理与架构创新 - DualPath的核心洞见是打破传统的单一路径模式,即KV-Cache的加载不必以预填充引擎为中心,可以绕道解码引擎[6][7] - 该框架改变了传统的“存储至预填充”单路径加载模式,引入了“存储至解码”的第二条路径,通过利用解码引擎闲置的存储网卡带宽,并配合高速计算网络传输至预填充引擎,实现了集群存储带宽的全局池化与动态负载均衡[3][13] - 在架构组成上,系统包含预填充引擎、解码引擎、流量管理器和中央调度器,中央调度器实时决策每条请求的路径以实现全局带宽最大化利用[18] 性能提升与实验结果 - 在660B规模的生产级模型实测中,DualPath表现惊人:离线推理吞吐量提高了1.87倍,在线服务吞吐量平均提升1.96倍[3][14] - 在高负载下,首字延迟大幅优化,而Token间的生成速度几乎不受任何干扰[5] - 在DeepSeek-V3、Qwen等模型上的测试表明,该框架显著降低了首字延迟,并保持了极其稳定的Token间延迟[14] 解决的问题与行业背景 - 该框架旨在解决当前智能体应用中,因对话轮数多、上下文长导致KV-Cache命中率高达95%以上时,推理性能瓶颈从“计算”转移到数据“搬运”的问题[7] - 在现有的预填充-解码分离架构中,所有加载任务拥挤在预填充引擎的存储网卡上导致带宽饱和,而解码引擎的存储网卡闲置,造成资源错配[9] - 当前GPU算力的增长远快于网络带宽和HBM容量的增长,加剧了I/O限制,印证了“计算是免费的,但数据移动是昂贵的”行业观点[11] 关键优化方案 - 采用以计算网卡为中心的流量管理,强制所有流量通过配对的CNIC走GPUDirect RDMA路径,并利用虚拟层技术为推理通信预留99%带宽,确保缓存搬运与计算通信互不干扰[13] - 设计了自适应请求调度器,监控每个节点的磁盘队列长度和Token数,优先将任务分配给I/O压力小且计算负载轻的节点,从根本上避免单点拥塞[14] - 通过层级流式处理,在预填充引擎和解码引擎上分配少量DRAM缓冲区,并设计了精细的数据流,以降低GPU显存占用并优化延迟[13][19] 研究团队与行业联系 - 论文第一作者吴永彤是北京大学博士生,师从金鑫教授,研究方向聚焦于系统软件与大模型基础设施,尤其是推理系统的工程优化与规模化部署[15][16] - 该研究者目前任职于DeepSeek系统组,参与下一代模型的推理基础设施建设,负责大规模软件系统在多硬件平台上的性能优化[21] - 其过往经历包括在腾讯WXG参与为DeepSeek-R1等SOTA大语言模型构建推理系统,该系统服务于十亿级用户,并与VLLM等开源社区紧密合作贡献工业级优化[22]
DeepSeek、月之暗面、MiniMax被点“非法提取”,它们做错了吗? | 电厂
新浪财经· 2026-02-25 18:47
事件核心观点 - Anthropic指控三家中国AI公司(DeepSeek、Moonshot、MiniMax)通过约2.4万个欺诈账户与Claude进行超1600万次互动,以“非法提取”其模型输出用于训练自身模型,并将此行为定义为“蒸馏攻击” [1] - 被指控的三家中国公司截至目前均未对Anthropic的声明作出公开回应 [1] - 此次事件是2026年开年不到三个月内,国产模型第二次陷入使用美国领先AI模型进行训练的争议 [1] 指控的具体内容与数据 - **技术手段**:Anthropic称三家中国公司采用了名为“蒸馏”的模型训练手段,将Claude作为“教师模型”,通过交互获取其输出概率分布等信息来训练“学生模型” [4] - **交互规模**:据Anthropic披露,三家中国企业以约2.4万个欺诈账户与Claude进行了超1600万次互动 [1] - **细分数据**:DeepSeek与Claude进行了15万次交换、Moonshot进行了340万次交换、MiniMax进行了1300万次交换 [7] - **提取焦点**:Anthropic认为上述行为针对Claude最独特的三大能力——代理推理、工具使用、编码进行了有意提取 [7] “蒸馏”技术的行业背景与争议 - **技术起源**:蒸馏技术可追溯至2015年,由Geoffrey Hinton及其团队提出 [4] - **行业普遍实践**:蒸馏是常见的让模型快速进化的手段,顶尖的大模型厂商和AI实验室常在自研大版本模型基础上蒸馏出更小版本模型,例如阿里巴巴在Qwen2发布5个月后蒸馏出了DistilQwen2 [6] - **条款禁止**:许多大模型(包括Claude)在其服务条款中明确禁止用户或竞品将模型输出用于训练或开发AI模型 [6] - **行为定性困难**:如何确证模型蒸馏行为的存在、如何定性该行为、是否涉及法律问题等,目前尚无明确路径可循 [10] 涉事各方的历史与回应 - **Anthropic的对华立场**:Claude及其公司Anthropic是对中国用户及客户最不“友好”的大模型公司之一,曾表态支持美国出口管制政策,并于2025年9月更新销售地区限制,不向位于中国或中资持股超50%的海外子公司提供商业访问渠道 [7] - **DeepSeek的历史争议**:2025年1月,OpenAI研究人员曾称DeepSeek可能使用了OpenAI模型的输出来训练R1大模型;DeepSeek在2025年9月发表于Nature的论文中回应称,其部分训练数据源于网页随机抓取,“没有故意加入OpenAI生成的合成数据” [9] - **Moonshot的历史争议**:2026年1月底Moonshot新模型Kimi K2.5发布后,坊间曾质疑其蒸馏自Claude;公司创始人杨植麟公开否认,解释称模型在预训练中采样了最新的互联网数据,而这些数据与“Claude”这个token关联较多 [9] 开源与闭源的生态博弈 - **中国模型的开源政策**:中国多款领先大模型遵循开源协议允许蒸馏行为,例如DeepSeek主要模型系列遵循MIT许可证,MiniMax-M1、Kimi K2、阿里巴巴Qwen3等遵循Apache 2.0许可证 [10] - **闭源模型的受益**:许多闭源模型同样受益于开源模型进行蒸馏,例如有市场消息称,Meta在训练其闭源模型“Avocado”时,会使用包括阿里巴巴Qwen在内的多家第三方模型进行蒸馏 [11] - **竞争逻辑的演变**:在AI新市场,技术先进程度不再是唯一追求,生态、人才、法律、地缘等因素叠加,使得竞争维度不断丰富 [13]
DeepSeek爆火一周年的寂静
36氪· 2026-02-25 08:48
公司近期表现与市场热度 - 公司在2025年马年春节假期期间保持沉默,未发布新模型,与智谱、千问、即梦等竞争对手接连发布新模型形成鲜明对比 [1] - 公司自2025年2月底R1模型发布后,公众热度曲线一路向下,后续发布的V3、DeepSeekMath等系列模型均未能复刻R1的核爆效应和现象级社会影响力 [3][5] - 尽管市场热度下滑,但公司在应用层面的用户留存率和日活量仍稳居AI应用榜单前列,与第二梯队形成断层式领先,用户并未大规模流失 [6] 公司技术发展与产品策略 - 公司在2025年保持高频模型迭代,包括3月24日发布DeepSeek-V3-0324、5月完成旗舰模型R1迭代升级、9月29日发布首个垂直领域专业模型DeepSeek-OCR、11月27日推出第二代数学专业模型DeepSeekMath V2 [9] - 在顶级大模型竞赛中,公司技术始终位于第一梯队,技术创新并未停滞 [9] - 公司产品功能形态聚焦于文字、识图等单一功能,未探索AI生图、视频理解与生成、语音通话、智能体等多模态融合功能,与OpenAI的GPT-4o、Google的Gemini及国内的豆包、元宝、文心等产品路径不同 [17] - 公司创始人及核心团队在R1发布后极少出现在公众视野,未投入大量资源进行个人IP打造,团队对外发声低调 [17] 公司行业合作与产业影响 - 公司积极与华为昇腾、寒武纪等国产AI芯片厂商展开深度合作,例如与昇腾达成“Day0适配”,确保新模型上线当天企业就能在国产算力上运行 [11] - 公司通过开源和与全球开发者社区互动,在开源社区中塑造了技术极客形象,展现出开放、合作的姿态,增强了全球用户对国产模型的信任 [21] - R1爆火后,部分金融、政务、医疗等领域机构已明确发文要求不得只押注于某一个大模型,而应采用多模型并行方案 [25] 公司战略选择与竞争环境 - 公司无法复刻年初盛况被解读为控股股东幻方量化的主动选择,是一种刻意的低调和市场狂热后的主动降噪 [4][12][17] - 公司后续模型发布采用静默发布策略,未进行大规模媒体宣传,主要在开发者社区和技术爱好者群体内传播,逐渐脱离大众媒体和普通用户视野 [15] - 在OpenAI、谷歌等国际巨头及国内竞争对手加快技术迭代与产品优化的激烈竞争下,公司选择按兵不动并保持低调 [14][15] - 公司表现出对编码、数学等垂直领域的专注,这类专业场景难以吸引大众关注,无法转化为公众热度 [15] 公司面临的考量与行业复杂性 - 公司当务之急被解读为不是追求更高热度,而是规避急功近利的雷区,回归技术纯粹性,在基础创新领域取得根本性突破 [19] - 公司被视为中国在关键核心技术领域实现自主可控和独立创新的力证,过度高调容易招致敌意和打压,静默发布有助于将讨论焦点维持在技术社区内部,争取更宽松的发展空间 [21] - 公司持续高调可能影响其他AI模型的发展,并在行业合作中陷入尴尬境地,刻意低调、回归底座定位被视为规避与同行冲突的明智之举 [23][25]