行业核心挑战 - AI行业面临计算资源稀缺的根本性制约 计算资源成为AI时代的"新石油" [4][39][58] - 公司需在计算资源、用户体验和技术发展之间进行复杂权衡 价格战背后是资源分配策略的差异 [4][30][58] AI服务定价机制 - AI服务定价本质是延迟、吞吐量和上下文窗口三大性能指标的权衡游戏 [2][3] - 延迟(Time-to-First-Token)指首个token生成时间 [23][24] - 吞吐量(Throughput)决定对话流畅度 基准为20-30 token/秒 [25][26] - 上下文窗口(Context Window)影响模型记忆容量 主流服务商提供64K-160K范围 [28][29] - 通过调整这三个参数 服务商可实现任意价格水平 单纯比较$/Mtok价格意义有限 [30][33] DeepSeek战略分析 - 采用极端配置换取低价:数秒延迟、25 token/秒吞吐量、64K最小上下文窗口 [4][33][34] - 官方平台MAU从6147亿降至4362亿(-29%) 但第三方托管模型使用量暴增20倍 [15][16] - 核心策略是通过高batch处理降低推理成本 将90%以上计算资源保留用于AGI研发 [39][57] - 编程能力显著提升 R1-0528版本较1月版本实现重大改进 [10][52][57] Anthropic应对策略 - 编程领域成功导致计算资源紧张 Claude 35 Sonnet API输出速度下降30%至55 token/秒 [44][45] - 采取"智能密度"优化:相同任务所需token数仅为竞品的1/3 提升资源利用效率 [48][49] - 积极获取外部计算资源: - 与亚马逊签约50万片Trainium芯片 [46] - 从Google Cloud租用大量TPU资源 [46] 行业竞争格局演变 - OpenAI将o3 API价格下调80% 封闭模式与开源方案价差从8-9倍缩至3-5倍 [55] - 推理云服务崛起 Cursor等"GPT Wrappers"推动token直销模式普及 [51] - 中国公司受出口管制影响主要在服务部署环节 模型训练能力保持强劲 [39][57]
DeepSeek 复盘:128 天后,为什么用户流量一直在下跌?
Founder Park·2025-07-13 04:19