Workflow
DeepSeek降本秘诀曝光:2招极致压榨推理部署,算力全留给内部AGI研究
量子位·2025-07-04 15:02

DeepSeek R1对市场的影响 - 推理模型价格大幅下降 OpenAI六月更新的o3价格相比o1直接打了2折 [1] - 第三方平台托管的DeepSeek模型使用量比刚发布时增长20倍 带动云计算厂商发展 [3] - DeepSeek自家网站和API市场份额持续下降 未能跟上AI产品增长节奏 [4] DeepSeek市场份额变化 - 5月全网DeepSeek模型产生的token中 DeepSeek本家份额仅占16% [11] - 网页版聊天机器人流量大幅下降 2月至5月活跃用户从6147M降至4362M 降幅29% [14] - 同期其他大模型流量显著增长 ChatGPT增长406% Claude增长365% Grok增长2471% [14] DeepSeek降本策略与用户体验 - 首token延迟问题严重 用户需等待数秒才能看到响应 而第三方平台可实现接近零延迟 [15][16] - 仅提供64k上下文窗口 在主流模型中最小 编程场景下无法满足需求 [22][23] - 用户请求被打包处理 降低单token成本但增加等待时间 [26] - 官方API价格并非最低 同等延迟下第三方平台如Lambda和Nebius提供25倍以上上下文窗口 [19][24] 公司战略方向 - 专注AGI研发 大量算力资源用于内部而非对外服务 [27][28] - 通过开源策略让第三方托管模型 扩大影响力并培养生态 [29] - 不追求从用户端盈利 减少对外提供的token数量 [27] 行业竞争动态 - Claude为缓解算力压力降低输出速度40% 但仍快于DeepSeek [31][32] - Claude设计更简洁回复 相同问题比DeepSeek和Gemini少用3倍token [33] - 行业趋势转向提升每个token的智能 而非单纯扩大模型规模 [35][36]