Workflow
提示词工程
icon
搜索文档
OpenAI推出学习模式,AI教师真来了?
虎嗅· 2025-07-30 09:45
今天凌晨,ChatGPT 迎来了一个重磅更新。不是 GPT-5,而是 Study Mode(学习模式)。 在该模式下,ChatGPT 不再只是针对用户查询给出答案,而是会帮助用户一步步地解决自己的问题。 以下视频展示了一个对比示例,可以看到在学习模式下,ChatGPT 会直接化身一个循循善诱的导师,确保用户理解解答过程中的每一个步骤和每一个概 念。 0:00 / 0:27 更具体而言,OpenAI 表示:当用户使用学习模式时,ChatGPT 会给出一些引导性问题,这些问题会根据用户的目标和技能水平调整答案,从而帮助他们 加深理解。学习模式的目标吸引学生并保持参与性,帮助学生学习,而不仅仅是让 AI 直接完成一些事情。 其主要功能和特性包括: 更妙的是,即使免费用户也可以使用该功能: 该功能一经推出就收获了好评无数: 交互式提示:结合苏格拉底式提问、提示(hints)和自我反思提示词,引导用户理解并促进主动学习,而不是直接提供答案。 支架式回复:信息被组织成易于理解的章节,突出主题之间的关键联系,使信息呈现方式有参与感,并适度融入背景信息,减少复杂主题带来的学 习压力。 个性化支持:课程可根据评估技能水平和先前 ...
刚刚,OpenAI推出学习模式,AI教师真来了,系统提示词已泄露
36氪· 2025-07-30 09:37
ChatGPT学习模式更新 - 核心功能升级为Study Mode(学习模式),通过引导式教学帮助用户逐步解决问题而非直接提供答案[1][2] - 免费用户也可使用该功能,推出后获得广泛好评[2][4] 学习模式核心特性 - **交互式提示**:采用苏格拉底式提问、提示和自我反思提示词促进主动学习[2] - **支架式回复**:信息分章节呈现,突出主题关联性并降低学习压力[2] - **个性化支持**:根据用户技能水平和聊天记录定制课程内容[2] - **知识测试**:通过测验和开放式问题跟踪进度并巩固知识[2] - **灵活性**:允许在对话中随时切换学习目标[2] 技术实现与设计理念 - 底层由OpenAI与教育专家合作编写的系统指令驱动,融合学习科学研究成果[10] - 关键设计原则包括鼓励主动参与、管理认知负荷、培养元认知能力等[10][13] - 系统提示词公开透明,包含用户评估、知识衔接、引导式教学等模块[11][13][15] 实际应用案例 - 支持家庭作业、考试准备和新主题探索等场景[4] - 演示案例显示能根据用户知识水平动态调整教学策略(如逻辑语学习)[6] - 教学流程包含初始评估、分步引导、知识强化等标准化环节[13][14] 行业影响 - 功能设计可复用于其他AI模型,推动教育科技领域创新[16] - 采用简洁热情的交互风格,保持对话流畅性与参与感[15]
刚刚,OpenAI推出学习模式,AI教师真来了,系统提示词已泄露
机器之心· 2025-07-30 08:48
ChatGPT学习模式更新 - ChatGPT推出Study Mode(学习模式),该模式旨在帮助用户逐步解决问题而非直接提供答案[1][2] - 学习模式下ChatGPT会通过引导性问题、分步骤解释和个性化调整来确保用户理解每个概念[3][4] - 免费用户也可使用该功能,核心特性包括交互式提示、支架式回复、个性化支持、知识测试和灵活性[5] 学习模式的功能特性 - **交互式提示**:采用苏格拉底式提问和提示词引导用户主动学习,避免直接给出答案[5] - **支架式回复**:信息组织成易于理解的章节,突出主题关联性并减少学习压力[5] - **个性化支持**:根据用户技能水平和聊天记忆定制课程内容[5] - **知识测试**:通过测验和开放式问题跟踪进度并提供反馈[5] - **灵活性**:允许用户在对话中随时切换学习模式以调整目标[5] 学习模式的构建原理 - 底层基于OpenAI与教育专家合作设计的提示词工程,体现主动参与、认知负荷管理等学习科学原则[13] - 系统提示词明确要求ChatGPT扮演导师角色,通过提问、联系已有知识、引导发现答案等方式辅助学习[16][17][18][19] - 关键规则包括了解用户目标、检查理解程度、改变互动节奏,并禁止直接解答作业问题[20][21][22] 用户反馈与案例 - 功能推出后广受好评,演示案例显示ChatGPT能通过问题评估用户知识水平并开展针对性教学[6][9] - 开发者发现OpenAI公开了学习模式的系统提示词,便于其他AI模型复现类似功能[14][15][24]
Karpathy:我不是要造新词,是「上下文工程」对 Agent 来说太重要了
Founder Park· 2025-07-04 21:10
上下文工程概念 - 决定AI应用效果的关键在于提供完整且恰当的上下文而非单纯优化提示词[3] - 上下文工程是一门精妙的艺术与科学需精准填充信息包括任务描述示例RAG多模态数据工具等[7] - 上下文窗口需平衡信息量与相关性过量或不足均影响性能[7] 与提示词工程的区别 - 提示词仅为用户输入的文本指令如让ChatGPT总结文本[16] - 提示词工程是系统化设计测试优化提示词的方法论类似软件工程[17] - 上下文工程是动态系统设计在正确时间以正确格式提供信息与工具[19] - 三者关系:提示词是输入文本提示词工程优化过程上下文工程构建动态系统[20] 重要性体现 - AI Agent效能核心取决于上下文质量而非代码复杂度[24] - 案例对比:普通Agent仅处理简单请求而优质Agent整合日历历史邮件等上下文实现高效响应[25] 落地策略分类 写入上下文 - 草稿板机制持久化保存任务计划避免token截断[31] - 长期记忆跨会话存储如ChatGPT的生成式记忆[32][35] 筛选上下文 - 从草稿板或记忆中提取相关片段如少样本示例或指令[37][38] - 工具选择采用RAG技术提升3倍准确率[41] - RAG挑战包括代码索引与语义分块需结合知识图谱检索[42] 压缩上下文 - 自动摘要技术处理长交互如Claude Code的95%窗口压缩[43] - 修剪策略包括硬编码规则或训练专用裁剪模型[46] 隔离上下文 - 多Agent架构分配独立上下文窗口专注子任务[48][50] - 沙盒环境隔离消耗性资源如HuggingFace的CodeAgent[53][54] - 运行时状态对象选择性暴露字段实现隔离[55] 行业动态 - Andrej Karpathy强调工业级LLM应用中上下文组件复杂性被低估[10] - LangChain与DeepMind工程师推动上下文工程方法论标准化[3][56]
登上热搜!Prompt不再是AI重点,新热点是Context Engineering
机器之心· 2025-07-03 16:01
上下文工程的核心概念 - 将LLM视为通用的、不确定的文本生成函数而非拟人化实体 强调其无状态特性 需通过输入文本来控制输出[4][5][8] - 上下文工程的核心在于构建有效输入文本系统 而非依赖单句"魔法咒语"式的提示词工程[9][11] - LLM被类比为新型操作系统 需要为其准备完整运行环境而非零散指令[13] 上下文工程的技术要素 - 采用自动化系统构建"信息流水线" 从多源自动抓取整合数据形成完整上下文[15][17] - 工具箱包含四大核心工具:指令下达、知识记忆管理、检索增强生成(RAG)、智能体自主查资料[19][21] - RAG技术通过知识库检索防止模型幻觉 确保回答基于事实[19] - 智能体技术实现动态信息获取 自主判断需求并整合多源数据[21] 工程实践方法论 - 采用科学实验式流程 分"从后往前规划"和"从前往后构建"两阶段实施[23][24][25] - 实施路径:明确输出目标→倒推所需输入→设计自动化生产系统[26] - 模块化开发流程:依次测试数据接口、搜索功能、打包程序 最终进行端到端系统测试[30] - LangChain生态提供实践支持 包括LangGraph和LangSmith等工具[29][31]
论坛| 未可知 x 容诚: AI技术在基金行业的创新应用与效率提升之道
AI技术在基金行业的创新应用与效率提升 核心观点 - AI技术正在重塑基金行业的投研、营销、运营等环节,生成式AI和智能体技术实现从“回答问题”到“完成任务”的跨越式发展 [4] - 中国AI发展面临算力瓶颈,但国产模型如DeepSeek通过开源策略和低成本训练提供高性价比转型方案 [8] - 未来十年是人机协同黄金期,构建“AI员工”团队的机构将在行业竞争中占据先机 [13] 技术演进 - 生成式AI(如DeepSeek、Sora)与传统决策式AI存在本质区别,前者重塑内容生产方式,后者侧重任务执行 [4] - 新一代AI智能体突破“回答问题”局限,实现复杂任务自动化处理 [4] 行业实践 - **信息处理高效化**:秘塔AI等工具可将信息搜集时间缩短80% [6] - **内容生产自动化**:提示词工程快速生成营销文案和PPT,视频生成技术赋能产品营销 [4][6] - **业务流程智能化**:RPA数字员工实现净值核对等重复性工作自动化,某大型基金公司年节省超4000工时 [6] 中国AI发展现状 - 国产模型优势:DeepSeek开源策略降低训练成本,适合金融机构本地化部署解决数据隐私问题 [8] - 挑战:算力瓶颈仍需突破,需平衡技术创新与资源限制 [8] 未来趋势 - 未可知人工智能研究院将推出AI培训课程,培养金融机构AI人才 [13] - AI创造力显著提升,可模仿网红风格文案或鲁迅笔锋文章,技术成熟度已具备商业化应用条件 [10]
提示词工程、RAG之后,LangChain:上下文工程开始火了!
机器之心· 2025-06-25 12:06
上下文工程概述 - 上下文工程是构建动态系统以合适格式提供准确信息和工具,使LLM能合理完成任务[5][9] - 该概念并非全新,近两年已被智能体构建者广泛关注[2] - 传统提示工程侧重设计提示语,但应用复杂度提升后单纯依赖提示已无法满足需求[3] 上下文工程核心特征 - 系统性:需整合开发者、用户、交互记录等多来源数据[10] - 动态性:多数上下文动态生成,提示逻辑需随动调整[11] - 准确性:缺乏正确上下文是智能体表现不佳的主因[12] - 工具适配:需提供查找信息或执行行动的工具[12] - 格式规范:工具输入参数的结构化程度影响沟通效率[13] 重要性分析 - LLM出错主因从模型能力不足转向上下文传递不当[15] - 现代AI系统需完整结构化上下文而非巧妙措辞[17] - 正成为AI工程师最关键的发展技能[7] 与提示工程差异 - 提示工程是上下文工程的子集[17] - 前者处理静态模板,后者处理动态数据集[17] - 核心指令设计仍是两者的共同重点[18] 实施要素 - 工具使用:外部信息需格式化为LLM易理解形式[20] - 记忆系统:需建立短期对话摘要和长期用户偏好记忆[20] - 检索机制:动态获取信息并插入提示[20] - 格式优化:数据传递方式直接影响模型响应质量[19]
PromptPilot发布: AI“嘴替”帮你优化每个指令
财富在线· 2025-06-16 18:42
产品发布 - 火山引擎在2025 FORCE原动力大会上正式发布面向大模型的智能解决方案平台PromptPilot [1] - PromptPilot通过深度解析用户意图并自动构建最优指令路径,将模糊想法转化为AI可执行的精准指令 [1] 行业痛点 - AI大模型时代面临"提问之困",高质量Prompt撰写过程耗时耗力且对使用者经验要求极高 [2] - 不同模型对相同问题的理解存在差异,高价值问题往往没有标准答案 [2] 核心功能 - 提供覆盖Prompt生成、调试、优化与迭代全生命周期的自动化一站式解决方案 [3] - 通过互动式引导将模糊需求转化为清晰目标,简化"好答案"的定义过程 [3] - 构建闭环优化体系,将Bad Case转化为数据资产实现持续进化 [3] - 模拟人类思考能力实现全自动多轮迭代优化,支持联网AI搜索和自定义知识库 [4] 技术创新 - 突破性支持多轮对话优化,提供GSB比对模式实现跨模型表现横向对比 [5] - 支持图片/视频等多模态场景的Prompt优化,可自动拆解复杂任务为多步方案 [5] - 优化Function Call场景的工具调用指令和描述,提升工具选择准确率 [5] - 通过SDK接口实现线上Case自动监测,形成"监测-纠错-进化"闭环 [6] 市场定位 - 将复杂的提示词工程转化为标准化流程,降低AI大模型使用门槛 [6] - 助力企业和开发者聚焦业务创新,推动AI应用开发进入普及化阶段 [6][7]
多智能体在「燃烧」Token!Anthropic公开发现的一切
机器之心· 2025-06-14 12:12
多智能体系统概述 - 多智能体系统特别适合解决开放式研究问题,这类问题需要动态调整方法和路径[6] - 研究本质是信息压缩,子智能体通过并行处理不同方面信息辅助主智能体完成压缩过程[7] - 多智能体系统在"广度优先"查询任务中表现突出,比单智能体系统性能提升90.2%[8] 系统架构设计 - 采用"协调者-执行者"模式,主导智能体协调多个并行子智能体[14] - 用户查询先由主导智能体分析并生成子智能体,从不同角度并行探索[18] - 与传统RAG方法不同,采用动态搜索流程根据中间结果调整方向[20] - 主导智能体LeadResearcher负责持久化研究计划和综合分析子智能体反馈[21][22][23] 性能优化关键 - token消耗量单独解释80%性能差异,工具调用次数和模型选择是另两个关键因素[15] - 并行调用工具使研究时间缩短90%,从几小时降至几分钟[41] - 提示词工程是优化行为主要手段,需建立准确心理模型[27] - Claude 4系列在提示词工程表现出色,能自我诊断失败原因并提出改进[32] 评估方法 - 采用"LLM担任评审官"方法,通过0.0-1.0评分评估输出质量[49][51] - 评估维度包括事实准确性、引用准确性、完整性等五个方面[58] - 早期开发阶段小样本评估即可发现显著影响[46] - 人工评估能发现自动化评估遗漏的边缘案例问题[54] 工程挑战 - 智能体有状态特性使错误会累积,需构建从错误状态恢复的系统[56] - 部署采用彩虹部署策略,逐步转移流量避免干扰运行中智能体[59] - 同步执行造成瓶颈,异步执行可提高并行性但增加协调复杂度[59] - 原型与生产环境差距较大,需要大量工程投入实现稳定运行[61]
DeepSeek与ChatGPT:免费与付费背后的选择逻辑
搜狐财经· 2025-06-04 14:29
技术差异 - DeepSeek采用混合专家模型,训练成本仅550万美元,远低于ChatGPT的几亿美元投入,在Chatbot Arena测试中排名第三与ChatGPT-4o并列 [2] - DeepSeek在数学推理方面表现突出,MATH-500测试准确率达97.3% [2] - ChatGPT基于传统Transformer架构,在多模态交互和创意内容生成方面更成熟 [2] 性能表现 - DeepSeek中文语义理解准确率92.7%高于ChatGPT的89.3%,支持古典文学解析和方言识别 [17] - 在金融领域应用使投资决策效率提升40%,医疗领域疾病鉴别诊断准确率85%,编程辅助错误率比GPT-4.5低23%且响应速度快40% [18][19][20] - 数据分析支持128K tokens长文本处理,某制造企业故障预测准确率从75%提升至92% [20] 成本优势 - 定价比ChatGPT低30%,处理效率高20%,能耗降低25% [8] - 百万token仅需8元,相比ChatGPT Pro月费200美元显著节省成本 [9] - 私有化部署前期投入约20万元服务器,长期无需持续API费用 [9] 应用场景 - DeepSeek适合深度推理、专业领域和数据隐私保护场景,某高校实验室用32B一体机支持240名学生实训 [22][23] - ChatGPT在多模态交互、创意内容生成和多语言翻译方面更具优势 [24] - 两者形成互补关系,共同推动AI行业发展 [21][53] 使用技巧 - AI输出质量70%取决于提示词设计,需掌握"提示词链"、"反向思考"和"多重角色"等高级技巧 [4][13][14][15] - 结构化提示词可显著提升效果,如分步引导分析市场进入策略 [14] - 专业领域提示词设计需结合具体场景需求,如医疗诊断需避免AI幻觉 [14][16] 生态发展 - DeepSeek通过算法创新降低算力依赖,已与华为、荣耀、阿里云等企业达成合作 [53] - ChatGPT持续进化多模态和记忆功能,两者共同推动AI技术民主化 [53] - 提示词工程能力将成为AI时代核心竞争力,包含AI思维、引导力、整合力与判断力 [54]