Workflow
少样本提示
icon
搜索文档
Manus「删博跑路」后,创始人首次深度复盘:公开产品细节,总结教训
36氪· 2025-07-19 09:15
公司动态 - Manus AI在爆火四个月后突然几乎全面撤出中国市场,清空全部社交账号内容,国行版本疑似暂停推进[1] - 公司联合创始人张涛宣布已将全球总部迁至新加坡,并在东京和加州设有办公室,官方称这是"基于经营效率的调整"[1] - 外界猜测公司可能正在"跑路",因出海引发裁员等一连串争议问题[1] 技术分享 - 联合创始人季逸超发布技术博客,总结构建Manus过程中积累的经验教训,内容包含实操干货和反思[3] - 博客详细介绍了7项关键技术经验,包括押注上下文工程、KV-Cache命中率优化、工具遮蔽法、文件系统承载持久上下文等[6][7] - 公司通过四次重构和数百万真实交互积累这些经验,对业内同行和普通用户都有参考价值[3] 技术决策 - 团队决定基于前沿模型的上下文学习能力构建Agent,而非训练端到端模型,这使产品更新周期从数周缩短至几小时[10] - 选择押注上下文工程而非模型训练,使产品能与底层模型进步保持正交关系[10] - 这个决策源于创始人此前创业的惨痛教训,当时训练的内部模型因GPT-3等出现而一夜过时[10] 技术优化 - KV-cache命中率被确定为生产阶段AI Agent最重要的单一指标,直接影响延迟和成本[12] - 以Claude Sonnet为例,缓存输入token成本为0.30美元/MTok,未缓存成本为3美元/MTok,相差10倍[13] - 提高命中率的实践包括保持提示前缀稳定、使上下文仅追加、明确标记缓存断点等[16][17][18] 工具管理 - 公司发现动态修改工具列表会让缓存失效、模型混乱,因此采用"遮蔽token logits"方法控制工具选择[19] - 通过上下文感知状态机管理工具可用性,而非动态添加移除工具[20] - 使用三种函数调用模式(自动、必需、指定)和一致前缀的动作名称设计来限制动作选择[23] 上下文管理 - 现代大模型128K token的上下文窗口在真实Agent场景中仍不足,且可能成为负担[25][26][27] - 公司采用可恢复的压缩策略,如保留URL而删除网页内容,避免信息永久丢失[30] - 通过不断重写todo.md文件将全局目标拉回注意力焦点,防止50次工具调用中偏离主题[31][34] 错误处理 - 保留错误日志(失败操作、堆栈信息)能帮助模型更新内部信念,减少重复错误[35][38] - 错误恢复被视为真正Agent行为的最清晰指标之一,但学术工作中代表性不足[38] - 过度清理错误会移除证据,使模型无法适应[35] 提示优化 - 少样本提示可能导致模型陷入同质化陷阱,盲目模仿上下文中的行为模式[39] - 解决方案是引入结构化变化,如不同措辞、顺序或格式的微小噪声[41] - 上下文越统一,Agent越脆弱,需要打破模式调整模型注意力[41]