通用型AI Agent技术路线 - 业界形成两条技术路线:端到端训练和上下文工程 模型厂商倾向端到端训练以发挥自有闭源模型优势 而通用Agent创业公司多选择上下文工程路径[1] - Manus团队作为上下文工程代表 其技术负责人季逸超因GPT-3导致自研模型失效经历 选择成为"涨潮中的船"而非"固定支柱"的技术哲学[4] - 上下文工程通过四次系统重构和服务数百万用户验证 将产品迭代周期从数周缩短至数小时[2][5] KV-Cache优化实践 - KV-cache命中率是生产阶段AI代理最关键指标 直接影响延迟和成本 Claude Sonnet缓存/未缓存token成本相差10倍(0.3 vs 3美元/MTok)[7] - 优化方法包括:保持提示前缀稳定 使用仅追加上下文 确保序列化确定性 手动标记缓存断点 分布式节点路由技术[9][10][11] - Manus平均输入与输出token比率达100:1 通过缓存优化实现10倍成本降低[7] 工具管理策略 - 动态修改工具定义会导致KV-cache失效和模型混淆 Manus采用token logits屏蔽技术替代动态修改[12][13] - 设计工具命名一致性(如browser_/shell_前缀) 结合三种函数调用模式(Auto/Required/Specified)实现上下文感知约束[16] 上下文扩展技术 - 突破128K token限制:将文件系统作为外部化内存 保留可恢复压缩策略(如仅存URL) 实现无限上下文存储[18][22] - 创建并持续更新todo.md文件 通过自然语言复述将任务目标保持在模型注意力焦点 解决50次工具调用中的目标偏离问题[23][26] 错误处理与多样性 - 保留错误内容可让模型从失败动作中学习 错误恢复能力是真实代理行为的关键指标[27][30] - 避免few-shot陷阱 通过引入动作/观察的结构化变化打破重复模式 防止模型陷入固定行为路径[31][32][33] 行业发展趋势 - 上下文工程成为代理系统必备能力 模型进步需结合内存/环境/反馈设计 未来代理将基于上下文迭代构建[35] - 创业团队通过轻量级技术路径验证 锦秋基金关注AI Agent赛道早期创新项目[3][36]
Manus季逸超:构建Manus的经验教训 | Jinqiu Select
锦秋集·2025-07-19 13:00