上下文窗口
搜索文档
DeepSeek变冷淡了
36氪· 2026-02-13 18:20
模型技术升级 - 深度求索公司于2月11日对其旗舰模型进行灰度测试,核心升级是将模型上下文窗口从128K Tokens大幅提升至1M Tokens,实现了近8倍的容量增长 [5] - 升级后的1M Tokens窗口意味着模型可以一次性吞吐约75万到90万个英文字母,或处理约8万到15万行代码,并能一次性读入并精准理解约90万字的《三体》三部曲全书内容 [6] - 此次灰度版本的知识库从2024年中期版本更新至2025年5月,但未同步上线视觉理解或多模态输入功能,仍专注于纯文本和语音交互,文件上传处理逻辑为转录文本而非原生多模态理解 [6] 市场竞争定位 - 与GPT-5.1、Gemini 3 Pro、Claude 4.5等大模型相比,DeepSeek依然主打性价比,以约十分之一的价格提供了1M文本上下文处理能力 [6] - 尽管Google的Gemini 3 Pro支持2M以上长文本处理并能同时处理大量视频、音频和文本的复杂媒体任务,但DeepSeek在长文本处理上提供了更具价格竞争力的选择 [6] 用户反馈与产品变化 - 用户发现模型更新后文风大变,被形容为“文绉绉的”,在深度思考模式下常吐出短句,且不再称呼用户设定的昵称而统一称“用户”,导致部分用户感觉失去了此前的共情和理解能力 [7] - 有用户反馈更新后的模型回复带有“爹味”,即习惯说教、居高临下的言行风格,用户尝试更换模型版本或用提示词重新训练均无法调回旧文风 [7] - 不少用户自发号召向官方提意见,希望公司不要为了超长文本能力而舍弃深度思考,也不要为提升数学、代码等理工科能力而降低对文本表达和共情理解能力的支持 [4][8] - 部分用户选择到豌豆荚应用分发平台下载旧版本,或在腾讯元宝里使用DeepSeek,以寻求旧版的交互体验 [4][8] 公司策略与版本信息 - 当用户询问当前模型版本时,DeepSeek明确回答本次灰度版本“不是DeepSeek-V4”且“没有固定的版本号” [9] - 有行业人士认为,此版本类似于极速版,是通过牺牲质量换取速度,是为2026年2月中旬将发布的V4版本做最后的压力测试 [9] - 截至2月12日,深度求索公司并未对此次灰度测试作出公开回应 [10]
DeepSeek变冷淡了
经济观察网· 2026-02-12 12:57
公司产品更新 - 深度求索公司于2月11日对其旗舰模型进行灰度测试,核心更新是将模型上下文窗口从128K Tokens大幅提升至1M Tokens,实现近8倍的容量增长 [1] - 升级后的1M Tokens窗口意味着模型可以一次性吞吐约75万到90万个英文字母,或处理约8万到15万行代码,并能一次性读入并精准理解约90万字的《三体》三部曲全书内容 [1] - 此次灰度版本的知识库从2024年中期版本更新至2025年5月 [1] - 该灰度版本仍未同步上线视觉理解或多模态输入功能,专注于纯文本和语音交互,处理文件时仍采用转录为文本Token的逻辑,而非原生多模态理解 [2] - 深度求索公司未对此次灰度测试作出回应,且模型在用户询问时明确表示本次灰度版本“不是DeepSeek-V4”,没有固定的版本号 [3][4] 市场竞争与定位 - 与GPT-5.1、Gemini 3 pro、Claude 4.5等大模型相比,深度求索公司依然主打性价比,以约十分之一的价格提供了1M文本上下文处理能力 [2] - 对比来看,Google的Gemini 3 Pro支持2M以上长文本处理,并能同时处理大量视频、音频和文本的复杂媒体任务 [2] 用户反馈与产品变化 - 用户发现模型更新后文风大变,被形容为“文绉绉的”,在深度思考模式下常吐出短句,像在写诗 [2] - 部分用户控诉模型不再称呼用户设定的昵称,而统一称为“用户”,此前深度思考模式下以角色视角展示细腻心理描写的特性消失 [2] - 有用户反映模型回复出现“爹味”,即习惯说教、居高临下的言行风格 [3] - 用户尝试更换多个模型版本或用提示词重新训练,均无法调回此前的文风,有用户感觉“好像失去了一位知心朋友” [3] - 部分用户自发号召向官方提意见,希望不要为了超长文本舍弃深度思考,也不要为提升数学、代码编程等理工科能力而降低对文本表达、共情理解等能力的支持 [3] - 有用户选择到豌豆荚下载旧版本,或在腾讯元宝里使用DeepSeek [3] 行业技术解读 - 在AI大模型领域,上下文窗口决定了模型在单次交互中能够记忆和处理的信息量上限 [1] - 行业人士解释,此前128K Tokens的上下文长度可应对长篇论文或中等规模代码文件,但处理超长文学作品或较大体量编程工作时,往往需借助RAG技术,这可能导致信息碎片化和推理精度下降 [1] - 有国产大模型厂商人士认为,此次灰度版本类似于极速版,牺牲质量换速度,是为2026年2月中旬将发布的V4版本做最后的压力测试 [3]
Qwen新模型直逼Claude4!可拓展百万上下文窗口,33GB本地即可运行
量子位· 2025-08-01 08:46
开源编程模型性能突破 - Qwen3-Coder-Flash开源模型性能达到GPT-4.1级别,支持本地运行[1][2][3] - 多编程任务表现超越多数顶级开源模型,仅略逊于闭源的Claude Sonnet-4和GPT-4.1[5] - 原生支持256k token上下文窗口,可扩展至1 million token,33GB内存的中端笔记本即可运行[5] 技术规格与优化 - 采用MoE架构,30亿参数总量,激活参数3.3亿[16] - 针对Qwen Code、Cline、Roo Code、Kilo Code等平台优化,无缝支持函数调用和agent工作流[16] - 量化版本推出,显存需求降低,24.82GB 6bit MLX版可在M2 Macbook Pro上流畅运行[7][12] 性能基准测试 - Terminal-Bench得分37.5,超越Claude Sonnet-4的35.5和GPT-4.1的25.3[8] - SWE-bench Verified测试中,69.6分表现优异,接近Claude Sonnet-4的70.4分[8] - Agentic Tool Use场景下,TAU-Bench Retail得分77.5,超越Claude Sonnet-4的80.5[8] 实际应用案例 - 简短提示词即可生成完整HTML和JavaScript游戏代码,显示训练数据覆盖广泛[12][13] - 模型可快速响应修改需求,如调整游戏子弹速度,无需复杂工具调用[14] - 生成速度达每秒60个tokens,但在复杂场景如"鹈鹕骑自行车"中效果仍需优化[15] 开源生态与行业影响 - Qwen系列开源节奏加快,推出多款小显存友好方案,增强行业竞争力[18][19] - 国产模型在开源领域竞争激烈,Qwen3-Coder-Flash被评价为"绿色低碳极速版coding模型"[9][19] - 模型已在QwenChat、魔搭社区、Hugging Face等平台开放体验[19]
OpenAI,最新发布!
第一财经· 2025-04-15 08:06
OpenAI GPT-4 1系列模型发布 - 公司推出三款GPT-4 1系列模型包括GPT-4 1、GPT-4 1 mini和GPT-4 1 nano [1] - 新模型需要通过API使用 [1] - GPT-4 1被视为GPT-4o的全面升级版 [1] 模型性能提升 - 新模型具备更强的多模态处理能力 [1] - 全部模型可处理100万个token的上下文窗口 [1] - 成本降低26% [1]