Workflow
Tokenomics
icon
搜索文档
DeepSeek 复盘:128 天后 ,为何迟迟推迟发布——SemiAnalysis
2025-07-07 23:45
纪要涉及的公司和行业 - **公司**:DeepSeek、OpenAI、Anthropic、Google、Microsoft、Amazon、Parasail、Friendli、Lambda、Nebius、Cursor、Oracle、Huawei、AMD、NVDA等 [4][22][24][29][30] - **行业**:人工智能(AI)行业,特别是大语言模型(LLM)领域 [4] 纪要提到的核心观点和论据 DeepSeek相关 - **核心观点**:DeepSeek R1发布后虽有影响,但自身服务市场份额下降,原因在于其在tokenomics上的权衡导致用户体验不佳 [8][13][21] - **论据** - **价格与延迟**:DeepSeek虽产品价格便宜,但用户需等待数秒模式才响应首个token,相比其他提供商延迟高,如Parasail、Friendli等可提供低延迟服务,微软Azure价格高但延迟低25s,且多数R1 0528实例现以低于5秒延迟托管 [22] - **上下文窗口**:DeepSeek运行K上下文窗口,是主要模型提供商中最小的之一,限制了如编码等需要大上下文窗口的用例,而相同价格下其他提供商如Lambda和Nebius可提供2.5倍上下文大小 [24] - **市场份额变化**:发布后消费者应用流量激增,但未跟上其他AI应用增长,自身网络应用和API服务市场份额下降,而第三方托管实例使用量近20倍增长,自身总token份额每月下降 [8][9][10][13] - **持续发展**:R1发布后持续扩展强化学习(RL),在许多领域尤其是编码方面有所改进,推理模型不断快速改进且更有效、更实惠 [5][7] Anthropic相关 - **核心观点**:Anthropic在编码应用方面成功,但受计算资源限制,不过用户体验优于DeepSeek [29][32][41] - **论据** - **编码应用成功**:Anthropic专注代码产品开发,其Claude Code使用量激增,超过OpenAI的Codex,Google也推出类似工具Gemini CL [29][30] - **计算资源压力**:Claude的输出速度在API上下降30%至略高于5 tokens每秒,因需处理大量请求且编码使用倾向大token数对话,相比之下OpenAI和Google的模型速度更快 [33] - **用户体验优势**:速度虽低但快于DeepSeek的2.5 tokens每秒,且回答问题所需token数远少于其他模型,端到端响应时间更低,Claude在领先推理模型中总输出token数最少 [41][42] 市场动态相关 - **核心观点**:AI市场竞争激烈,各公司在计算资源、价格、性能等方面竞争,开源模型有发展潜力,速度可通过其他因素补偿 [44][47][40] - **论据** - **价格竞争**:DeepSeek低价冲击市场后,OpenAI旗舰模型价格下降80%,其6月对GPT - 4 API定价大幅削减,缩小与R1的价格/性能差距 [4][53] - **计算资源投入**:Amazon大规模建设AI集群,投资数十亿美元用于Trainium AI集群,Anthropic将获得超50万个Trainium芯片用于推理和训练,Anthropic还从Google GCP租用大量计算资源,Google云也向其他AI公司扩展服务 [37][38][39] - **开源模型潜力**:廉价计算资源的可用性和软硬件的快速创新将推动开源模型发展,如DeepSeek R1在编码性能上不断改进,对采用有积极影响 [47] 其他重要但是可能被忽略的内容 - DeepSeek将研发团队从杭州迁至北京,运营人员翻倍以应对媒体请求,虽有R2延迟传言,但并非因出口管制导致训练延迟,且其仍保持快速招聘速度,还为华为盘古模型提供技术支持 [54][55][56] - 推理云兴起,越来越多公司效仿Anthropic以服务形式销售token,而非像ChatGPT那样以月度订阅形式捆绑销售 [44]
Deepseek爆火之后的现状如何?
傅里叶的猫· 2025-07-04 20:41
DeepSeek R1发布与市场影响 - DeepSeek R1于2025年1月20日推出,性能与OpenAI推理模型相当,但定价极具颠覆性,输入/输出token价格仅为10美元,引发全球AI市场震动 [3] - 低价策略导致行业价格战,OpenAI输出token价格下降8美元以上,迫使旗舰模型价格调整 [3] - 据Reuters报道,DeepSeek低成本策略导致美国科技股市值蒸发数十亿美元,投资者重新评估AI巨头估值 [4] 技术进步与强化学习 - 模型通过强化学习(RL)显著升级,编码领域表现突出,SWE-Bench显示性能提升同时成本降低 [5] - 2025年5月29日发布的R1-0528升级版通过增加计算资源和算法优化,AIME 2025测试准确率从70%提升至87.5%,每题平均token使用量从12K增至23K [5] - 性能提升伴随延迟增加和吞吐量降低,牺牲部分用户体验以实现低成本 [5] 用户使用趋势 - 第三方托管平台使用量激增,自发布以来增长近20倍,但自托管模型用户增长乏力 [6] - 移动应用曾短暂超越ChatGPT成为Apple App Store榜首,但直接用户增长随后放缓,更多用户转向第三方托管服务 [6] - 2025年2月至5月,月活跃用户从6.147亿降至4.362亿(-29%),而ChatGPT同期增长40.6%至54.92亿 [14] token经济学与性能对比 - 通过高批量处理降低每token成本,但导致高延迟和低吞吐量,自托管模型用户体验较差 [7] - 关键性能指标对比显示DeepSeek R1延迟高、吞吐量低(64K上下文窗口),每token成本0.01美元,与Parsail相当但性能落后 [9] - Microsoft Azure提供中等性能,每token成本0.015美元,平衡价格与体验 [9] 硬件与计算限制 - 低成本策略依赖高批量处理,减少推理资源使用,目标为扩大全球影响力而非盈利 [10] - 中国推理模型规模化受出口管制限制,R2延误传闻与管制相关,但训练能力未受显著影响 [10][16] - R1-0528在编码领域进步显著,显示中国AI训练技术仍强,推理规模化需克服硬件和政策障碍 [10] 竞争格局与行业动态 - 用户转向腾讯元宝、字节豆包等第三方平台,导致DeepSeek官方工具使用量下降 [15] - 出口管制对训练影响有限,R2延迟可能涉及审查要求等非硬件因素 [16] - 行业数据显示2025年本地GPU产能预计从2kwpm增至10kwpm,2027年达26kwpm,晶圆良率逐步提升 [21]