Workflow
高价值任务
icon
搜索文档
为什么「高价值任务」成了所有 AI Labs 的T0 级战略?| 拾象 AGI 备忘录
海外独角兽· 2026-04-18 10:48
文章核心观点 - 过去一个季度AI模型能力进步剧烈,尤其在编码等高价值任务上,行业竞争焦点已从争夺用户规模转向争夺顶尖用户和完成高价值任务,这正在深刻重塑软件行业和白领工作模式[2] - AI Labs的战略高度收敛于“高价值任务”,其价值衡量标准从互联网时代的用户规模转向了“Token消耗 × 任务单价”,这动摇了传统的ToC/ToB二分法[8][10][11] - 硬件(如NVIDIA的LPU)与模型(如Claude Opus)的协同突破,为AI处理复杂、长周期任务提供了基础,并可能形成“二八定律”式的收入和token消耗结构[13][15][17] - 行业进入“Multi-Agent”时代,这对硬件提出了新的并行计算与数据传输要求,也使得“规划智能”(Planning)的价值超过“执行智能”(Execution),Harness(为AI Agent搭建的工作环境)成为关键基础设施[7][19][21] 根据相关目录分别进行总结 01. 硅谷正在集体经历“Move 37 时刻” - AI技术发展在2026年初呈现非线性加速,硅谷从业者普遍感受到类似AlphaGo“第37手”带来的颠覆性冲击[4] - AI工程师和研究员的工作方式发生根本转变,许多人从亲自写代码转为仅做代码审查,亲手写代码的比例从70%-80%降至5%以下[4] - 二级市场视角显示,AI生成代码的比例从去年的5%-20%提效,转变为今年80%甚至更高比例的代码由Agent完成[6] - AI的冲击正从替代白领工作(第一层)延伸到重估企业软件毛利(第二层),因为员工可利用AI内部构建简单系统,挑战传统SaaS的高定价[6] - AI研究过程本身也在加速,头部实验室内部已出现半自动化甚至接近全自动化的实验流程,形成自我改进的闭环[6] 02. 高价值任务:所有AI Labs的T0战略 - 头部AI实验室(如Anthropic, OpenAI)的战略从分化重新收敛,共同将“高价值任务”作为最高优先级(T0级)战略[8] - 市场数据印证了这一趋势:Claude Code的年度经常性收入(run rate)从2025年底约9亿美元飙升至2026年3月的近30亿美元,两三个月内增长约3倍;OpenAI的年度经常性收入(ARR)也从去年底的21亿美元增长至近期的27-28亿美元[8] - “高价值任务”的核心特征是能够端到端“采取行动”(take action),而不仅仅是提供信息,这将对全球白领的工资池进行重新分配[8] - 高价值任务通常具备高智力门槛、高单位智能消耗和高单位产出价值的特点,法律、金融、编程等是典型领域[8] 03. ToC / ToB二分法是互联网时代的旧地图 - 用ToC(面向消费者)和ToB(面向企业)来区分AI实验室的策略是互联网时代的惯性思维,“高价值任务”的叙事正在彻底摆脱这一旧框架[10] - 用户规模(DAU)不再是价值的充分条件:Claude Code的用户规模约为ChatGPT的1/20,但两者的年度经常性收入已基本持平甚至反超[11] - 新时代的价值公式从“日活跃用户数 × 每用户平均收入”转变为“Token消耗量 × 任务单价”[11] - B端市场形态正在变化:按席位(seat)定价的SaaS逻辑正在被按结果(outcome)定价替代;企业采购从“信息系统”转向“雇佣劳动力”,本质上是不同的市场[11] - Agent时代,C端和B端的边界日益模糊,评估AI公司的关键维度变为其是否承载高价值任务,以及其占据的是80%的token消耗还是80的支出[12] 04. 25%的卡创造80%的收入 - NVIDIA在GTC 2026上定义了高价值任务:由Agent独立完成、长周期、产生大量token并最终交付结果的任务[13] - 在硬件约束下,模型推理的速度和吞吐量存在矛盾,传统方案用小模型兼顾,但需要大量试错[13] - NVIDIA提出的路线是:未来高价值任务应由最好的模型进行试错,并同时输出大量token,这对硬件提出了低延迟和高并发的新要求[15] - NVIDIA定量拆分了模型使用场景:将25%的算力卡分配给最高价值任务场景(使用GPU+Grok LPU方案),这25%的场景可能创造80%的收入;而最低价值的25%场景基本用于服务免费客户,几乎不创造收入[15] - 这一结构的深层含义在于,只要高价值任务必须运行在最顶尖的硬件和模型上,顶尖模型就拥有结构性定价权[17] 05. “只投软件”的硅谷也开始投芯片了 - 近期硅谷风险投资出现反常趋势,大量过去主要投资软件的机构开始批量投资芯片领域,这种情形至少十年难遇[18] - 现实矛盾在于:高端GPU集群能运行最好的模型但推理速度有限、并发不高;小模型虽快但任务处理能力简单[18] - Cerebras和NVIDIA收购的Grok设计思路相似,采用SRAM内存,比当前主流的HBM更快、吞吐更大,适合处理推理中的中间数据[18] - 进入Multi-Agent时代,尤其是多智能体协作场景,需要“AI原生的硬件”,同时对上下文处理能力、单次推理速度和合作过程中的数据吞吐量提出了极高要求[19] 06. 80%的token与80%的spending是两件事 - 提升高价值任务处理能力有两条路径:一是如NVIDIA所示提升顶尖模型和硬件性能;二是如OpenClaw所示,通过优化Harness让平价模型通过消耗更多token反复试错来够到高价值任务的上限[20] - OpenClaw的创新在于理念,但离生产级应用仍有差距,真正能将Harness做到生产级的,大概率还是Claude、OpenAI等离模型更近的团队[20] - Multi-Agent的本质是在单位时间内进行大量并行计算,并通过分工协作提升系统鲁棒性,这更像一个管理学问题[21] - 在Multi-Agent系统中,真正有价值的是负责定角色、派任务的“规划智能体”,而非执行智能体[21] - 当前高价值任务的“二八结构”(即少数场景创造大部分收入)依赖于顶尖模型在规划能力上保持领先。一旦平价模型跨过“够用”阈值,顶尖模型在该场景的定价权就会消失,从创造80%支出的区域滑向仅消耗80%token的区域[21]