Workflow
上下文工程
icon
搜索文档
腾讯研究院AI速递 20250707
腾讯研究院· 2025-07-06 22:05
Grok 4性能突破 - Grok 4在HLE测试中得分45%,超越Gemini 2.5 Pro和Claude 4 Opus [1] - 采用"第一性原理"构建推理机制,从基本公理层面分析问题 [1] - 将分Grok 4和Grok 4 Code两个版本,强化编码能力,预计7月4日后发布 [1] Gemini CLI功能升级 - 新增音视频输入功能扩展多模态交互能力,目前支持文本/图片/PDF处理 [2] - 增强Markdown功能并集成VSCodium/Neovim编辑器,提升开发体验 [2] - 技术栈升级至Ink 6和React 19,优化历史记录压缩算法提高性能 [2] 昆仑万维奖励模型 - Skywork-Reward-V2系列刷新七大评测榜单,参数规模6亿至80亿 [3] - 采用两阶段迭代数据甄选流水线,从4000万样本筛选2600万高质量数据 [3] - 1.7B小参数模型性能接近70B大模型,证明高质量数据可抵消参数限制 [3] DeepSeek R1开源进展 - 德国TNG开源DeepSeek-TNG-R1T2-Chimera模型,基于三大模型混合开发 [4] - 推理效率比R1-0528提升200%,降低推理成本且主流测试表现更优 [5] - 创新AoE架构利用MoE细粒度结构,通过权重插值优化子模型性能 [5] Excel Agent技术突破 - Shortcut成为首个超越人类的Excel Agent,10分钟解决世锦赛难题 [6] - 功能兼容性近乎完美,可处理金融建模/数据分析/像素艺术等复杂任务 [6] - 早期预览阶段存在格式化弱/长对话不佳/复杂数据易宕机等局限 [6] Sekai视频数据集 - 上海AI Lab开源5000+小时第一人称视频,覆盖101国750城 [7] - 分为真实世界Sekai-Real和虚拟场景Sekai-Game,含多维标签 [7] - 基于数据训练Yume模型支持键鼠控制视频生成,助力视频研究 [7] 医疗AI突破 - ChatGPT识别MTHFR A1298C基因突变,被称为医疗界AlphaGo时刻 [8] - 微软MAI-DxO系统诊断NEJM病例准确率85%,是医生的四倍 [8] - 医疗AI正成为全流程解决方案,开启AI+医生共治模式 [8] 上下文工程兴起 - 上下文工程取代提示工程成为AI智能体成功关键因素 [9] - 关注为LLM提供完整系统包括指令/历史/工具等全方位信息 [9] - 智能体失败多因上下文问题而非模型本身 [9] AI重塑市场调研 - 生成式AI将1400亿美元传统调研转变为持续动态竞争优势 [10] - AI原生公司构建"虚拟社会"模拟用户行为,实现实时低成本调研 [10] - CMO认为70%准确率+实时更新比传统方式更具商业价值 [10] 企业AI创业趋势 - 企业级AI需解决真实环境中用户行为不可预测等"最后一公里"问题 [11] - 顶尖AI公司年增长率达10倍以上,受益于采购行为变革 [11] - 通过数据权威/工作流锁定/垂直整合等方式构建竞争壁垒 [11]
Karpathy:我不是要造新词,是「上下文工程」对 Agent 来说太重要了
Founder Park· 2025-07-04 21:10
上下文工程概念 - 决定AI应用效果的关键在于提供完整且恰当的上下文而非单纯优化提示词[3] - 上下文工程是一门精妙的艺术与科学需精准填充信息包括任务描述示例RAG多模态数据工具等[7] - 上下文窗口需平衡信息量与相关性过量或不足均影响性能[7] 与提示词工程的区别 - 提示词仅为用户输入的文本指令如让ChatGPT总结文本[16] - 提示词工程是系统化设计测试优化提示词的方法论类似软件工程[17] - 上下文工程是动态系统设计在正确时间以正确格式提供信息与工具[19] - 三者关系:提示词是输入文本提示词工程优化过程上下文工程构建动态系统[20] 重要性体现 - AI Agent效能核心取决于上下文质量而非代码复杂度[24] - 案例对比:普通Agent仅处理简单请求而优质Agent整合日历历史邮件等上下文实现高效响应[25] 落地策略分类 写入上下文 - 草稿板机制持久化保存任务计划避免token截断[31] - 长期记忆跨会话存储如ChatGPT的生成式记忆[32][35] 筛选上下文 - 从草稿板或记忆中提取相关片段如少样本示例或指令[37][38] - 工具选择采用RAG技术提升3倍准确率[41] - RAG挑战包括代码索引与语义分块需结合知识图谱检索[42] 压缩上下文 - 自动摘要技术处理长交互如Claude Code的95%窗口压缩[43] - 修剪策略包括硬编码规则或训练专用裁剪模型[46] 隔离上下文 - 多Agent架构分配独立上下文窗口专注子任务[48][50] - 沙盒环境隔离消耗性资源如HuggingFace的CodeAgent[53][54] - 运行时状态对象选择性暴露字段实现隔离[55] 行业动态 - Andrej Karpathy强调工业级LLM应用中上下文组件复杂性被低估[10] - LangChain与DeepMind工程师推动上下文工程方法论标准化[3][56]
登上热搜!Prompt不再是AI重点,新热点是Context Engineering
机器之心· 2025-07-03 16:01
上下文工程的核心概念 - 将LLM视为通用的、不确定的文本生成函数而非拟人化实体 强调其无状态特性 需通过输入文本来控制输出[4][5][8] - 上下文工程的核心在于构建有效输入文本系统 而非依赖单句"魔法咒语"式的提示词工程[9][11] - LLM被类比为新型操作系统 需要为其准备完整运行环境而非零散指令[13] 上下文工程的技术要素 - 采用自动化系统构建"信息流水线" 从多源自动抓取整合数据形成完整上下文[15][17] - 工具箱包含四大核心工具:指令下达、知识记忆管理、检索增强生成(RAG)、智能体自主查资料[19][21] - RAG技术通过知识库检索防止模型幻觉 确保回答基于事实[19] - 智能体技术实现动态信息获取 自主判断需求并整合多源数据[21] 工程实践方法论 - 采用科学实验式流程 分"从后往前规划"和"从前往后构建"两阶段实施[23][24][25] - 实施路径:明确输出目标→倒推所需输入→设计自动化生产系统[26] - 模块化开发流程:依次测试数据接口、搜索功能、打包程序 最终进行端到端系统测试[30] - LangChain生态提供实践支持 包括LangGraph和LangSmith等工具[29][31]
上下文就是一切!行业热议话题:提示工程是否应该改名
歸藏的AI工具箱· 2025-06-26 19:40
核心观点 - 上下文工程是比提示工程更准确描述LLM应用核心技能的术语 强调为LLM提供完成任务所需的所有上下文 [1] - 工业级LLM应用中 上下文工程是精心填充上下文窗口的艺术与科学 需包含任务描述 少样本 RAG 多模态数据 工具 状态历史等多维度信息 [1] - 上下文工程师需具备对LLM"心理"的引导性直觉 通过持续优化提示词和上下文内容来建立模型边界认知 [2] 行业动态 - Shopify CEO和Andrej Karpathy推动"上下文工程"术语替代"提示工程" 因其更准确反映岗位核心技能 [1] - Cognition和Anthropic在AI Agent构建中均强调上下文管理是关键 Anthropic指出数百轮对话需精细策略 [3] 重要性分析 - 不充分上下文共享导致子Agent工作不一致或冲突假设 过长上下文限制LLM回忆能力 GPT-4o多轮对话准确率仅50% [4] - 语音AI Agent中上下文膨胀增加延迟(目标中位延迟800ms) 函数调用准确性在多轮对话中显著下降 [4] 优化策略框架 - Lance Martin定义上下文工程为伞状学科 涵盖指令上下文(提示/记忆) 知识上下文(RAG) 操作上下文(工具流) [5] - 提出三大策略:压缩(保留高价值Token) 持久化(存储检索系统) 隔离(划分上下文边界) [5] 压缩技术实践 - Claude Code在上下文窗口使用超95%时自动压缩 Anthropic多Agent研究生成工作阶段摘要 [7] - Cognition的Devin使用专用微调模型进行上下文压缩 显示技术门槛较高 [7] 持久化系统构建 - 存储方式:Claude Code用CLAUDE.md文件 Cursor/Windsurf用规则文件 Letta/Mem0用嵌入式文档 Zep/Neo4J用知识图谱 [10] - 保存策略:Claude Code用户手动更新 Reflexion论文提出Agent轮次后反思生成 ChatGPT等产品实现自动记忆生成 [11][12] - 检索机制:小规模直接载入(如CLAUDE.md) 大规模需选择性检索(向量搜索/图检索) GPT-4o曾因检索错误注入非意图位置信息 [14][15] 隔离管理方案 - 上下文模式:用Pydantic模型替代臃肿消息列表 隔离高Token内容并按需获取 深度研究Agent将messages与sections分离 [18][20] - 多Agent架构:OpenAI Swarm库实现关注点分离 Anthropic研究显示隔离上下文多Agent性能比单Agent高90.2% 但Token消耗增15倍 [21] - 环境隔离:HuggingFace的CodeAgent在沙箱执行代码 隔离生成对象(如图片)但保留变量引用能力 [22] 行业实践经验 - 工具先行原则:建立Token追踪机制作为基础 Anthropic建议"像Agent一样思考"明确状态模式 [23] - 可并行化任务优先采用多Agent Anthropic案例显示子Agent无需严格协调时效率显著提升 [26] 发展趋势 - 上下文管理是AI Agent核心 需平衡性能(如GPT-4o 50%准确率) 成本(15倍Token消耗) 准确性(函数调用) [24] - LLM本质是无状态函数 最佳输出依赖最佳输入设计 清晰表达需求与语境构建决定响应质量 [25]
提示词工程、RAG之后,LangChain:上下文工程开始火了!
机器之心· 2025-06-25 12:06
上下文工程概述 - 上下文工程是构建动态系统以合适格式提供准确信息和工具,使LLM能合理完成任务[5][9] - 该概念并非全新,近两年已被智能体构建者广泛关注[2] - 传统提示工程侧重设计提示语,但应用复杂度提升后单纯依赖提示已无法满足需求[3] 上下文工程核心特征 - 系统性:需整合开发者、用户、交互记录等多来源数据[10] - 动态性:多数上下文动态生成,提示逻辑需随动调整[11] - 准确性:缺乏正确上下文是智能体表现不佳的主因[12] - 工具适配:需提供查找信息或执行行动的工具[12] - 格式规范:工具输入参数的结构化程度影响沟通效率[13] 重要性分析 - LLM出错主因从模型能力不足转向上下文传递不当[15] - 现代AI系统需完整结构化上下文而非巧妙措辞[17] - 正成为AI工程师最关键的发展技能[7] 与提示工程差异 - 提示工程是上下文工程的子集[17] - 前者处理静态模板,后者处理动态数据集[17] - 核心指令设计仍是两者的共同重点[18] 实施要素 - 工具使用:外部信息需格式化为LLM易理解形式[20] - 记忆系统:需建立短期对话摘要和长期用户偏好记忆[20] - 检索机制:动态获取信息并插入提示[20] - 格式优化:数据传递方式直接影响模型响应质量[19]
近期必读!Devin VS Anthropic 的多智能体构建方法论
歸藏的AI工具箱· 2025-06-15 16:02
多智能体系统概述 - 多智能体系统由多个大型语言模型(LLM)智能体协同工作组成 主智能体(协调器)负责规划任务并委托给并行操作的子智能体 具体步骤包括任务分解、子智能体执行和结果合并[4][6] - 该系统特别适合开放式研究任务 因其具备动态调整和并行探索能力 在广度优先查询中性能比单智能体提升90.2%[14][27] - 核心架构采用协调者-工作者模式 主智能体(LeadResearcher)负责策略制定和结果综合 子智能体(Subagents)并行执行具体任务[29][30] 多智能体系统优势 - 并行操作优势显著:子智能体通过独立上下文窗口并行运行 主智能体可同时启动3-5个子智能体 使复杂查询研究时间缩短90%[16][17] - 信息处理效率提升:通过关注点分离和并行推理 系统能更彻底地调查问题 在识别S&P 500公司董事会成员等任务中表现优于单智能体[27] - 动态适应能力强:研究过程中可根据新发现调整方法 支持先广后深的搜索策略 模仿人类专家研究模式[33][34] 多智能体系统挑战 - 架构脆弱性问题:子智能体可能误解任务导致结果不一致 早期系统出现过为简单查询生成50个子代理等协调问题[10] - 上下文共享难题:子智能体间缺乏充分上下文共享 可能基于冲突假设行动 如分别构建不同风格的《飞扬的小鸟》游戏元素[19][20] - 资源消耗巨大:多智能体系统token消耗达聊天交互的15倍 仅适用于高价值任务 编码等依赖性强任务目前不适用[17][28] 解决方案与优化措施 - 严格领域限定:仅应用于适合并行化的研究任务 排除编码等依赖性强领域 通过专用提示工程明确子智能体职责[8][12] - 高级上下文管理:采用文件系统直接存储输出 建立记忆机制保存关键信息 在上下文接近限制时生成新智能体交接[16][30] - 精细化提示工程:包含7项核心原则 如教导协调器明确委派任务 根据查询复杂度动态调整工作量 优先使用专用工具等[33] 行业应用现状 - 主要应用场景包括:专业软件开发(10%)、技术内容优化(8%)、商业策略制定(8%)、学术研究辅助(7%)和信息验证(5%)[38] - 实际效果显著:用户反馈显示能发现新商业机会 解决技术难题 在医疗保健等领域节省数天研究时间[38] - 评估方法创新:采用LLM作为裁判评估事实准确性等维度 结合人工测试发现边缘案例 需同时关注结果正确性和过程合理性[36]