OpenAI o3-pro 发布与定价调整 - OpenAI 发布 o3-pro 模型,号称推理能力最强 [1] - 同时宣布 o3 价格下调 80%,降至与 GPT-4o 相当水平 [1] - 输入 token 从每百万 10 美元降至约 2 美元 [1] - 输出 token 从每百万 40 美元降至约 8 美元 [1] - 10000 字提示词成本从 0.72 元降至 0.144 元 [2] o3-pro 技术规格与影响 - 上下文窗口大小达 200k,最大输出 token 数 100k [3] - 可输入约 15 万字提示词,相当于一篇短篇小说长度 [3] - 更便宜资费和更强上下文利好 Agent 架构记忆问题 [3] - 为 RAG 技术提供更长提示词上下文支持 [3] RAG 技术演进 基础 RAG - 工程层面包含三个关键步骤:向量检索→上下文拼接→一次性生成 [8] - 优势在于快、易落地 [7] - 短板包括检索策略死板、推理链条单薄 [7] - 典型问题包括检索覆盖不足、回答缺少链条、可观测性差 [9] 高级 RAG - 在基础 RAG 上增加工程控制策略 [10] - 采用多通道找资料+智能排序+过程可追踪的方案 [12] - 可同时跑向量、关键词、结构化数据等多路召回 [13] - 系统自动记录召回率、覆盖率等指标 [14] - 在医疗问答场景使召回率从 62%提升至 93% [12] - 在券商数据分析场景使报告生成时间从 80 秒缩短至 18 秒 [12] GraphRAG - 将所有书的知识点串成关系网,实现网状路径跳跃推理 [17] - 把"检索增强"升级到"关系增强" [18] - 检索颗粒度从文本块升级到实体+关系+路径 [18] - 典型能力提升包括多跳推理、事实连贯性、减少幻觉 [18] 推理型 RAG - 融合思维链推理与检索动态调度 [22] - 面向复杂思考+自主决策场景 [22] - 包含思维链增强、自反思机制、多步骤分解推理等能力 [24] - 在医疗诊断案例中实现可追踪的自纠错闭环 [30] 行业发展趋势 - 模型基础能力持续增强 [33] - 上下文窗口从 4k-8k 发展到 128k、200k 甚至更大 [34][37] - 新一代 RAG 可能演进方向: - 窗口够大时整篇输入,不够再按结构化单元分 [40] - 检索层统一处理多模态数据 [40] - 检索-推理-验证全程留痕 [40] - 未来重点将转向丰富多模态数据的无缝衔接,而非切割细节优化 [41]
OpenAI o3-pro发布,也许当前的RAG过时了
虎嗅·2025-06-16 14:33