Workflow
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
苹果苹果(US:AAPL) 36氪·2025-09-02 17:45

研究背景 - 苹果与牛津大学和香港城市大学合作提出BED-LLM新方法 使AI解决问题能力提升6.5倍 成功率从14%暴增至91% 无需微调或重新训练[1] - 大型语言模型存在多轮遗忘症 难以智能自适应地从用户或外部环境获取信息 在多步猜谜游戏和任务澄清等交互式任务中表现不佳[3] 技术方法 - BED-LLM采用序贯贝叶斯实验设计框架 通过迭代过程选择能最大化预期信息增益的问题 根据用户回答更新信念再选择下一问题[5][7][8] - 方法包含三重智慧设计:追求真正信息增益而非表面不确定性 强制逻辑自洽纠正遗忘症 生成问题有的放矢而非天马行空[12][16][17] - 通过先采样后过滤策略确保逻辑自洽 用逻辑过滤器剔除与历史回答矛盾的选项 保持推理基于已知事实[16] - 采用针对性条件生成策略 参考逻辑自洽假设池生成能高效切分假设的问题[17] 性能表现 - 在20个问题猜谜游戏中 BED-LLM使用Mistral-Large预测名人时成功率从14%提升至91%[18] - 在电影推荐任务中取得显著改进 即使LLM预测模型与回答者模型不同优势依然有效[19] - 在模型跨服聊天测试中 提问方使用Qwen回答方使用GPT-4o-mini的情况下 BED-LLM性能优势保持稳健[20][22] 行业意义 - 研究展示通过数学框架将LLM从被动知识库转变为主动高效的信息收集者 预示未来AI交互将进入智慧对话阶段[24] - 该方法使AI能根据用户实时反馈动态调整策略 精准提出最有价值问题 提升自适应信息收集能力[4]