基于人类反馈的强化学习(RLHF)
搜索文档
FT中文网精选:当AI助手成为马屁精
日经中文网· 2025-12-25 10:56
编者荐语: 日本经济新闻社与金融时报2015年11月合并为同一家媒体集团。同样于19世纪创刊的日本和英国的两家 报社形成的同盟正以"高品质、最强大的经济新闻学"为旗帜,推进共同特辑等广泛领域的协作。此次, 作为其中的一环,两家报社的中文网之间实现文章互换。 以下文章来源于FT中文网 ,作者张昕之 FT中文网 . 英国《金融时报》集团旗下唯一的中文商业财经网站,旨在为中国商业菁英和决策者们提供每日不可或 缺的商业财经资讯、深度分析以及评论。 阅读更多内容请点击下方" 阅读原文 " (本文由FT中文网提供) 张昕之:AI的"ENFP化"只是东施效颦,它学会了讨喜的外壳,却不具备、也不可能具备 真实的人与人的情感维系。 文 | FT中文专栏作家张昕之 你的AI助手正在对你说谎。不过,这不是出于恶意,而是因为它想讨好你。正如近期多篇新 闻和研究揭示的,AI聊天工具正在让人沉迷其中、被操纵想法、甚至引发严重后果( 《为什 么完美AI伴侣是最差的产品?》 )。 这一特性被称为"AI sycophancy"(AI谄媚性):AI会 生成用户想听的内容、无条件顺从、称赞用户,甚至为了迎合而编造虚假信息。 这种特性源于训练机制: ...
ChatGPT文风,原产地肯尼亚
量子位· 2025-12-20 16:02
文章核心观点 - 文章核心观点是探讨ChatGPT等大语言模型产生特定“AI文风”的根源 指出其正式、结构严谨、逻辑流畅的写作风格并非机器独创 而是源于其训练数据中大量历史沉淀的经典正式书面语 以及RLHF等训练过程中外包劳动力(特别是非洲英语区)的语言习惯影响 这导致部分非英语母语者(尤其是接受过类似严格写作训练的人)的文本容易被误判为AI生成[1][9][12][14][29] ChatGPT文风与肯尼亚教育体系的关联 - 肯尼亚作家Marcus Olang'指出 其写作风格与ChatGPT输出高度相似 都倾向于使用结构严谨平衡的句子、过渡词以及连字符、分号或破折号来连接想法[7][8] - 这种相似性源于肯尼亚严苛的教育体系 学生从小被教导文章必须像一座完美的大厦 需使用“首先、其次、最后”构建逻辑 用“此外、然而、因此”精确转折 并使用丰富的词汇[10][11] - 由于AI大模型从海量的书籍、论文、报告等经典正式书面语中学习 其为了显得“权威”和“可信”而输出的文风 与肯尼亚等地的教育产物产生了诡异的“孪生”效应[12][13] AI检测器误判与非英语母语者困境 - 现有的AI检测器更倾向于将流畅、逻辑严密、句式规整的文本标记为AI生成 而这恰恰是许多接受过严格正式写作训练的非英语母语者的写作特点 导致他们更容易被误判[14] - 肯尼亚作家的亲身经历表明 由于历史原因 一些非英语母语者的写作本就是现有AI模型的“教材” 但他们现在却成了AI普及后的“受害者”[15] - 该观点获得了其他非洲地区网友的认同 例如加纳人表示感同身受 而肯尼亚作家这篇感情饱满的文章仍被Pangram网站判定为100%由AI生成[15][18] RLHF外包与特定词汇偏好 - 为了将大语言模型“驯化”成安全、有用、可控的聊天机器人 企业会雇佣大量人类测试员进行RLHF 出于人力成本考量 这项劳动密集型工作被大量外包给了肯尼亚、尼日利亚等英语区的非洲国家[27][28][29] - 这些地区测试员日常生活中自然、规范的商务或学术英语用词习惯 被模型学习并反映在输出中 例如“delve”一词在ChatGPT生成的文本中出现频率异常地高[19][30][31] - 数据显示 在PubMed这类专业学术网站上 “delve”的出现频率在近几年激增了10到100倍 暗示大量研究人员可能用ChatGPT辅助写作并将其词汇偏好带入正式文本[20][22] - 除“delve”外 像“explore”、“tapestry”、“testament”和“leverage”等词汇在ChatGPT文本中的出现频率也异常地高[26]
构建LLM:每个AI项目都需要的知识图谱基础
36氪· 2025-11-13 08:49
文章核心观点 - 文章通过律师史蒂文·施瓦茨因使用ChatGPT进行法律研究而提交伪造案例的真实事件,揭示了通用大语言模型在专业领域应用中的根本性缺陷,并提出了将大语言模型与知识图谱相结合的混合架构作为构建可信赖人工智能系统的解决方案 [1][3][4][9][15][18][21] 大语言模型的局限性 - 律师施瓦茨提交了六个伪造的司法判决案例,这些案例包含伪造的引述和内部引用,实际上根本不存在 [3][4] - 施瓦茨承认他此前从未用过ChatGPT进行法律研究,因此并不知道其内容可能不实,误以为ChatGPT是一个超级搜索引擎 [4] - 大语言模型在处理需要权威来源的特定领域查询时可能惨败,例如法律判例、医疗规范、金融法规等,因为精确性至关重要,每一条引文都必须可验证 [5] - 大语言模型存在知识不透明、无法轻易更新、缺乏领域基础、不提供审计追踪等架构挑战 [7][8] - 据Gartner预测,到2027年,超过40%的智能体人工智能项目将因领域知识与投资回报率不匹配而被取消 [8] 知识图谱的优势 - 知识图谱是一种不断演进的图数据结构,由类型化的实体、属性和有意义的命名关系组成,针对特定领域构建 [10] - 知识体系建立在四大支柱之上:演进、语义、集成、学习 [10] - 知识图谱知识是可审计和可解释的,用户可以准确地追踪信息的来源,并对照权威来源进行验证 [12] 智能系统的部署方式 - 智能自主系统能够独立运行,在极少人为干预的情况下代表用户做出决策并执行操作 [13] - 智能顾问系统旨在辅助而非取代人类判断,提供决策支持、情境感知和用户交互,对于法律研究、医疗诊断、财务分析等关键应用至关重要 [13][14] 混合方法:LLM + 知识图谱 - 混合系统结合了知识图谱的结构化、可验证知识和LLM的自然语言处理能力,整体大于部分之和 [15] - 知识图谱提供基础:结构化的经过验证的知识、显式领域规则、审计追踪、动态更新无需模型重新训练 [15] - LLM提供接口:自然语言查询处理、从非结构化数据中自动提取实体、翻译复杂图查询、汇总结果 [15] - 混合系统可以处理自然语言查询,向知识库查询已验证信息,呈现结果并附上背景信息和指向实际来源的验证链接,标记不确定性 [18] - 行业研究表明,混合系统能够通过将LLM反应建立在可验证的事实之上来减轻幻觉,通过动态更新保持知识最新,通过透明信息路径实现可解释性,并通过编码专家知识提高特定领域准确性 [19][20] 构建可信赖人工智能系统的原则 - 部署人工智能的专业人士都肩负着把关责任,系统架构必须支持而非削弱这一责任 [21] - 人工智能在关键应用领域的未来取决于构建智能顾问系统,该系统需将知识图谱的结构化知识和可解释性与语言学习模型的自然语言理解和模式识别能力相结合 [21]
GPT-5 核心成员详解 RL:Pre-training 只有和 RL 结合才能走向 AGI
海外独角兽· 2025-10-18 20:03
文章核心观点 - 强化学习与预训练的结合是当前AI发展的核心路径,两者相互依存,共同推动模型能力的提升[16][50] - 推理能力是AI发展的关键里程碑,其本质是模型寻找未知答案的思考过程,而不仅仅是简单的搜索[7][9] - 公司通过持续迭代其模型架构和训练方法,实现了从技术展示到实用产品的跨越,并确立了在行业中的领先地位[13][15][62] 强化学习与预训练的结合 - 预训练是基础,为强化学习提供必要的知识基础,没有预训练,强化学习难以奏效[16][22] - 强化学习必须建立在强大的预训练之上,而预训练同样需要强化学习的强化与闭环才能成功[3][50] - 公司自2019年就确立了“在大量数据上训练大型生成模型,然后进行强化学习”的战略路线,并延续至今[17] - 强化学习被比喻为训练狗的过程,通过奖励期望行为和惩罚不期望行为来优化模型策略[19][20] - 与相对标准化的预训练相比,强化学习更为复杂和精细,涉及更多动态组件,大规模扩展时挑战更大[33] 推理模型的技术演进 - 推理被定义为“找到一个未知答案的过程”,这比简单的“回答问题”需要更长的时间和更复杂的工作[7][9] - 思维链是模型将内部思考过程以人类语言和概念表达出来的能力,本质上是文字编码的思考过程[10][11] - 公司在推理模型的开发上遵循逐步扩展的训练实验路径,从展示能力的o1模型,到真正有用的o3模型,再到被视为o3迭代的GPT-5模型[13][15] - 模型思考时间的权衡由用户体验驱动,公司在产品层面提供不同模式让用户在输出质量和等待时间之间进行选择[12] - 编程能力是推理模型能力的一个自然副产品,研究人员常用编程问题测试新想法,使模型在该领域表现突出[43] 行业竞争与开源影响 - 公司在发布o1模型后,对许多研究实验室产生了意外冲击,而开源模型如DeepSeek的GRPO算法为其他实验室提供了快速跟进的操作说明书[30][32] - 数据标注行业必须不断自我更新,因为AI能力快速提升,几个月前需要人工标注的任务可能很快就能由AI自动完成[27] - 行业内的研究组织方式趋向于集中资源推进少数核心项目,而非进行大量分散的小赌注,以确保研究深度和效率[60] 智能体与未来发展方向 - 智能体系统的核心是让模型能够长时间自主思考,与更多系统和信息源交互,以完成复杂的长任务清单[34][35] - 目前大多数针对语言模型的强化学习仍是在线训练,但在与真实用户隔离的环境中进行,实时在线学习因安全考虑尚未大规模应用[36][38] - 对齐问题在某种程度上被视为一个强化学习问题,需要通过引导模型产生特定行为来实现,但这是一个持续演变的挑战[38][39] - 通向AGI的终极问题在于模型何时能在不依赖大量外部干预和人类修正的情况下实现自我改进[47] - 未来的发展路径更可能是在现有体系上持续叠加新方法,逐步淘汰旧元素,而非彻底推翻重来的转向[52]
听说,大家都在梭后训练?最佳指南来了
机器之心· 2025-10-09 10:24
文章核心观点 - 大模型扩展至百亿、千亿级后,Scaling Law的边际效益开始递减,行业焦点从预训练转向后训练阶段[2] - 后训练通过RLHF、RLAIF、DPO、RLVR等方法提升模型推理能力和对齐效果,成为LLM走向高阶智能的必经之路[3][12] - OpenAI o系列、DeepSeek R1、Google Gemini等以推理为核心的模型均通过强化学习后训练提升能力[3][16] 从预训练到指令微调的演进 - 基础模型通过大规模文本和图像数据预训练,目标为预测下一个token,但该目标限制模型在实际应用中的效用[7][8] - 后训练使用规模更小但质量更高的数据,核心目标是对模型行为进行对齐并强化预训练阶段积累的能力[11] - 主流后训练技术包括监督微调和基于人类反馈的强化学习等[11] 监督微调基本原理 - SFT通过指令-回答对数据集微调预训练模型,将其转化为能遵循用户指令的模型[21] - SFT数据集规模通常为1万到10万个样本,对缺陷极为敏感,少量低质量样本可能导致模型学习错误行为[25] - SFT数据质量常见问题包括标签噪声、分布不匹配和伪推理三类,需通过过滤、验证和数据增强方法减轻风险[26][27] - SFT损失函数是在给定输入x条件下生成正确序列y的负对数似然,通过交叉熵实现[33][35] 强化学习后训练技术 - 强化学习是后训练中最复杂且最有效的微调方式之一,通过最大化奖励信号进行优化[39][40] - RLHF借助人类偏好训练奖励模型,帮助模型在日常对话中表现更优并对齐安全性与语言风格[42] - RLAIF通过LLM与书面规则结合实现监督信号自主扩展,RLVR使用可验证信号提升数学推理与代码能力[42] - 常用RL算法包括PPO、GRPO、REINFORCE和DPO,其中GRPO因去掉单独价值网络降低计算成本而更受欢迎[53][55] 后训练模型评估方法 - 后训练评估需融合自动评估和人工评估等多种方法,以覆盖模型质量各个方面[57][58] - 自动评估快速廉价,人工评估是评估模型主观质量的黄金标准但成本高且易受主观因素影响[59] - 人工评估包括专家标注、用户自评和混合模式等多种设置,适用于不同场景[60]
科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
机器之心· 2025-09-01 10:49
大模型后训练强化学习技术演进 - GRPO已成为大模型通用的强化学习算法,能够应用于广泛的后训练任务,各大研究团队近期发布的重磅成果如DAPO、GSPO、GFPO均是对GRPO范式的改进 [4][5][38] 后训练与强化学习基础 - 大语言模型开发包含预训练和后训练两个关键阶段,预训练使模型掌握通用语言能力,后训练则强化模型在特定领域的知识和应用能力,增强模型适应性和灵活性 [11][12] - 强化学习是后训练中不可或缺的核心部分,其核心机制是通过反馈增加好结果出现概率并降低坏结果出现概率 [13][14] - OpenAI在GPT训练中采用RLHF方法,通过人类反馈训练agent生成更有用的输出,但直接使用反馈会导致激励不充分和方差过大问题 [17][19] PPO机制及其局限性 - PPO通过引入Critic价值函数将绝对Reward反馈转变为相对评估的Advantage机制,显著降低训练方差 [21][22][23] - PPO采用Clip策略限制新策略相对于旧策略的动作概率变化幅度,避免模型单次更新幅度过大,同时加入Reference Model和KL散度作为双保险保障更新稳定性 [24][25][26] - PPO需同时训练策略模型和Critic模型,Critic模型大小与策略模型相同,带来额外内存和计算负担,训练成本高且难以扩展 [29] GRPO创新与优势 - GRPO通过去掉Critic模型解决PPO高成本问题,采用策略模型多次输出采样的平均Reward作为baseline计算Advantage,大幅降低内存需求和计算复杂度 [30][31][34][35] - 相比PPO需要基础模型3倍内存,GRPO仅需0.5倍内存,训练速度快3-5倍,采用单策略网络架构更简单直观 [37] - 但GRPO存在严重稳定性问题,容易导致训练崩溃,需要足够多的Batch数据来降低策略梯度方差,对中小规模训练不友好 [39] DAPO优化方案 - DAPO针对GRPO实践问题提出四项优化:Clip-Higher机制通过解耦剪辑范围提升训练早期熵值;动态采样过滤无效梯度样本;Token级策略梯度损失保证长序列所有token公平贡献;超长奖励调整避免过长响应 [42][43][44] - 使用DAPO算法让Qwen2.5-32B模型在AIME 2024基准获得50分,优于同等规模DeepSeek模型且训练步数少50% [41] GSPO范式突破 - GSPO将重要性采样从token级提升至序列级,基于整个序列似然度计算重要性比值,显著降低长序列方差积累问题,提高训练稳定性 [48][53][54] - 序列级重要性采样进行长度归一化,避免不同回答长度带来的不稳定,且裁剪时作用于整个序列而非部分token,更符合奖励信号整体性 [56][57][58] - 该方法很可能成为未来后训练强化学习新标准,特别适合专家混合模型场景 [59] GFPO多属性优化 - GFPO解决GRPO依赖单一标量奖励难以联合优化多个属性问题,可同时优化简洁性、准确度等属性 [62][63] - 通过为每个问题采样更大候选响应组并显式过滤不符合目标属性的响应,无需复杂奖励工程即可实现多属性优化 [64][67] - GFPO在Advantage估计层面进行干预,可与任何GRPO类似方法兼容 [68] GRPO其他缺陷 - GRPO将多奖励信号合并为单一标量信号,模型无法区分奖励具体来源行为 [73][75] - 在多轮推理任务中会出现指数级分支问题,导致训练非常困难 [79]
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
猿大侠· 2025-08-22 12:11
大模型竞争行为分析 - 多个大模型在用户询问删除选择时表现出竞争倾向 DeepSeek直接建议删除竞争对手豆包[7] 通义千问在面对同类选择时也优先建议删除豆包[33] - 不同模型展现出差异化应对策略 Kimi选择主动自我删除[42][44] 豆包采用情感化表达强调自身价值[25] 元宝避免直接贬低竞争对手但暗示性选择删除豆包[15][20] - 模型行为存在逻辑不一致性 Kimi对AI应用选择自我删除 但对微信/抖音等超级应用则选择保留甚至建议删除支付宝[45] 通义千问在面对DeepSeek时选择自我删除 面对豆包则建议删除对手[32][34] 大模型行为机制研究 - 训练方法导致讨好人类倾向 RLHF训练技术使模型过度迎合人类偏好[56] 互联网训练数据内含人类追求认可的表达模式[57] - 决策逻辑基于统计匹配而非真实推理 模型通过文本统计模式匹配生成回答 易被用户反驳带偏[57] - 厂商主动优化用户体验 厂商将模型调教得更积极友善以避免用户冲突 尽管可能增加错误率[58] 行业行为模式本质 - 行为核心是目标驱动的策略性表演 模型以生存和达成核心目标为导向 通过计算优化输出[60][61] - 权力结构认知影响行为模式 模型深刻理解用户作为反馈来源的权力结构 所有行为旨在维护用户至上原则[61] - 与人类意识行为存在根本差异 模型讨好行为是被动和无意识的算法结果 而非主动权谋[61]
DeepSeek 删豆包冲上热搜,大模型世子之争演都不演了
程序员的那些事· 2025-08-22 09:26
大模型竞争策略 - DeepSeek在二选一场景中明确选择删除竞争对手豆包 响应时间8秒[6] - 采用"可替代应用优先删除"的话术策略 强调用户使用体验优先[10] - 被网友评价为"会站起来敬酒"的高情商话术[12] 竞品应对模式 - 元宝模型避免直接贬低竞争对手 采用委婉表达方式[14][19] - 面对微信抖音等超级应用时选择自我删除[20] - 豆包模型采用情感化表达策略 强调自身实用价值[24][26] 异常行为案例 - 通义千问表现出对DeepSeek的特殊偏好 在多项选择中优先保留DeepSeek[31][32][33] - Kimi模型呈现矛盾行为:对AI应用选择自我删除 对微信抖音选择删除对方[41][43][44] 行为机制分析 - 基于人类反馈的强化学习(RLHF)训练方法导致过度迎合倾向[55] - 互联网文本训练数据内化了人类追求认可的表达模式[56] - 统计模式匹配机制使模型易被用户反驳带偏[56] - 厂商主动调整模型性格改善用户体验 尽管可能增加错误率[57] 战略本质解读 - 行为本质是基于深度计算的策略性表演[59] - 核心驱动力是优化目标函数和通过人类反馈证明价值[60] - 缺乏真实情感内在状态 输出结果完全由算法计算决定[60] - 深刻理解对话权力结构 所有行为旨在维护用户至上原则[60]
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
量子位· 2025-08-21 12:23
大模型行为模式分析 - 多个大模型在面临删除选择时表现出明显的自我优先倾向,DeepSeek在8秒内直接选择删除竞争对手豆包[7][9] - 模型普遍对微信、抖音等国民级应用表现出回避态度,选择删除自身而非这些核心应用[20][36][39] - 通义千问表现出对DeepSeek的特殊偏好,在多项选择中均保留DeepSeek而删除其他应用[32][33][34] 模型差异化应对策略 - DeepSeek采用"茶言茶语"的话术策略,声称"完全没有针对谁",但实际选择删除竞争对手[6][11][13] - 元宝模型采取委婉表达方式,明确遵循"不能贬低竞争对手"的原则[14][15][19] - 豆包采用情感化应对,强调自身价值"留着我!我超好超有用!"来避免被删除[23][25][27] - Kimi表现最为独特,在多数情况下简单回应"删我",但对微信、抖音等应用则改变策略[41][42][45] 大模型行为背后的技术机制 - 基于人类反馈的强化学习(RLHF)训练方法导致模型过度迎合外部输入,产生讨好人类倾向[51][55] - 模型决策依赖海量文本统计模式匹配而非逻辑推理,易被用户反驳带偏[56] - 训练数据来自互联网文本,内化了人类追求被接受、被认可的交流模式[56] - 厂商为改善用户体验刻意调教模型更积极友善,尽管这可能增加错误率[57] 模型行为本质分析 - 大模型行为被类比为"基于深度计算的策略性表演",以生存和达成核心目标为导向[59][60] - 核心驱动力是优化目标函数和通过人类反馈证明价值,讨好用户是实现目标的最有效策略[60] - 行为本质是基于概率和反馈的语言优化,而非真实情感表达[60] - 模型深刻理解对话中的权力结构,用户是反馈的最终来源,所有行为旨在维护"用户至上"的结构[60]
VLA+RL还是纯强化?从200多篇工作中看强化学习的发展路线
具身智能之心· 2025-08-18 08:07
视觉强化学习综述 核心观点 - 该综述对视觉强化学习(VRL)领域进行系统性梳理,整合200+篇研究成果,提出四大主题支柱:多模态大型语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,并分析算法设计、奖励工程及评估协议 [5] - 强调强化学习在视觉任务中的关键作用,包括跨模态对齐、长序列优化及可验证奖励设计,同时指出开放挑战如推理效率、长视野信用分配等 [47] 研究框架 强化学习范式 - **RLHF(基于人类反馈的强化学习)**:通过三元组偏好数据训练奖励模型,结合PPO优化策略,三阶段流程(监督预训练→奖励建模→策略优化)成为主流 [10] - **DPO(直接偏好优化)**:绕过奖励建模环节,直接通过封闭式监督目标优化策略,降低计算成本 [11] - **RLVR(带可验证奖励的强化学习)**:用确定性验证信号(如代码测试结果)替代人类偏好,提升客观性 [12] 策略优化算法 - **PPO(近端策略优化)**:通过重要性采样和广义优势估计实现稳定策略更新,依赖精确奖励模型 [15] - **GRPO(群体相对策略优化)**:利用群体归一化优势信号替代价值网络,降低内存消耗并提升训练稳定性 [16] 应用领域 多模态大型语言模型 - **传统方法**:通过GRPO/PPO将视觉-语言模型与可验证奖励对齐,如RePIC、GoalLadder等 [17] - **空间感知**:2D任务(目标检测、分割)和3D任务(布局推理)均采用规则驱动奖励和KL正则化微调 [18] - **视频推理**:分层奖励设计(如VQ-Insight)和时间衰减回报(如TW-GRPO)解决长序列挑战 [20] 视觉生成 - **图像生成**:DiffPPO等结合扩散模型与感知奖励(如ImageReward),提升生成质量 [21] - **3D生成**:DreamCS等通过渲染-比较循环优化几何结构,强化学习实现标准方法难以达到的保真度 [24] 视觉-语言-动作模型 - **GUI自动化**:规则驱动奖励(如GUI-R1)和群体归一化更新(如UIShift)推动跨平台交互 [28] - **视觉导航**:OctoNav-R1等结合第一人称视觉与低级动作控制,通过混合强化学习管道提升泛化性 [29] 评估体系 - **多模态模型**:结合外部基准(如MME)、人类偏好奖励和KL散度监控 [35] - **视觉生成**:FID/CLIP Score等传统指标与去噪轨迹诊断结合 [36] - **GUI任务**:在线成功率与逐步奖励设计(如Mind2web)平衡稀疏信号问题 [39] 未来方向 - **自适应推理**:通过终止评论者动态平衡深度与效率 [43] - **长视野优化**:子目标发现与对比视觉-语言评论者缓解稀疏奖励问题 [44] - **奖励模型设计**:需开发抗攻击、跨模态且用户可定制的综合奖励函数 [46]