基于人类反馈的强化学习(RLHF)
搜索文档
构建LLM:每个AI项目都需要的知识图谱基础
36氪· 2025-11-13 08:49
"施瓦茨先生,我已经审阅了你的反对意见书,"联邦法官凯文·卡斯特尔开口道,语气沉稳却不失重点。"你引用了六个案例 来支持你委托人的立场。我想讨论一下 瓦格斯诉中国南方航空公司一案 。" 拥有数十年经验的律师史蒂文·施瓦茨在椅子上挺直了身子。"是的,法官阁下。这是2019年第十一巡回法院的一项判决,它 直接支持——" "我找不到,"法官打断道,"你提供的引证号——925 F.3d 1339——在我书记员查阅过的任何数据库中都没有出现。你能向法 庭提供一份完整的判决书副本吗?" 施瓦茨感到一丝担忧。"当然,法官大人。我会立即提交。"回到办公室后,施瓦茨再次联系他的信息来源。他在ChatGPT上 输入:"Varghese诉中国南方航空公司案,925 F.3d 1339(第十一巡回上诉法院,2019年)是真实存在的案例吗?"对方自信 地回复道:"是的,Varghese诉中国南方航空公司案,925 F.3d 1339是真实存在的案例。您可以在LexisNexis和Westlaw等权威 法律数据库中找到它。" 施瓦茨放心后,向 ChatGPT 询问了更多案件细节。人工智能很配合地生成了一些看似是判决书摘录的内容,包括令人 ...
GPT-5 核心成员详解 RL:Pre-training 只有和 RL 结合才能走向 AGI
海外独角兽· 2025-10-18 20:03
文章核心观点 - 强化学习与预训练的结合是当前AI发展的核心路径,两者相互依存,共同推动模型能力的提升[16][50] - 推理能力是AI发展的关键里程碑,其本质是模型寻找未知答案的思考过程,而不仅仅是简单的搜索[7][9] - 公司通过持续迭代其模型架构和训练方法,实现了从技术展示到实用产品的跨越,并确立了在行业中的领先地位[13][15][62] 强化学习与预训练的结合 - 预训练是基础,为强化学习提供必要的知识基础,没有预训练,强化学习难以奏效[16][22] - 强化学习必须建立在强大的预训练之上,而预训练同样需要强化学习的强化与闭环才能成功[3][50] - 公司自2019年就确立了“在大量数据上训练大型生成模型,然后进行强化学习”的战略路线,并延续至今[17] - 强化学习被比喻为训练狗的过程,通过奖励期望行为和惩罚不期望行为来优化模型策略[19][20] - 与相对标准化的预训练相比,强化学习更为复杂和精细,涉及更多动态组件,大规模扩展时挑战更大[33] 推理模型的技术演进 - 推理被定义为“找到一个未知答案的过程”,这比简单的“回答问题”需要更长的时间和更复杂的工作[7][9] - 思维链是模型将内部思考过程以人类语言和概念表达出来的能力,本质上是文字编码的思考过程[10][11] - 公司在推理模型的开发上遵循逐步扩展的训练实验路径,从展示能力的o1模型,到真正有用的o3模型,再到被视为o3迭代的GPT-5模型[13][15] - 模型思考时间的权衡由用户体验驱动,公司在产品层面提供不同模式让用户在输出质量和等待时间之间进行选择[12] - 编程能力是推理模型能力的一个自然副产品,研究人员常用编程问题测试新想法,使模型在该领域表现突出[43] 行业竞争与开源影响 - 公司在发布o1模型后,对许多研究实验室产生了意外冲击,而开源模型如DeepSeek的GRPO算法为其他实验室提供了快速跟进的操作说明书[30][32] - 数据标注行业必须不断自我更新,因为AI能力快速提升,几个月前需要人工标注的任务可能很快就能由AI自动完成[27] - 行业内的研究组织方式趋向于集中资源推进少数核心项目,而非进行大量分散的小赌注,以确保研究深度和效率[60] 智能体与未来发展方向 - 智能体系统的核心是让模型能够长时间自主思考,与更多系统和信息源交互,以完成复杂的长任务清单[34][35] - 目前大多数针对语言模型的强化学习仍是在线训练,但在与真实用户隔离的环境中进行,实时在线学习因安全考虑尚未大规模应用[36][38] - 对齐问题在某种程度上被视为一个强化学习问题,需要通过引导模型产生特定行为来实现,但这是一个持续演变的挑战[38][39] - 通向AGI的终极问题在于模型何时能在不依赖大量外部干预和人类修正的情况下实现自我改进[47] - 未来的发展路径更可能是在现有体系上持续叠加新方法,逐步淘汰旧元素,而非彻底推翻重来的转向[52]
听说,大家都在梭后训练?最佳指南来了
机器之心· 2025-10-09 10:24
文章核心观点 - 大模型扩展至百亿、千亿级后,Scaling Law的边际效益开始递减,行业焦点从预训练转向后训练阶段[2] - 后训练通过RLHF、RLAIF、DPO、RLVR等方法提升模型推理能力和对齐效果,成为LLM走向高阶智能的必经之路[3][12] - OpenAI o系列、DeepSeek R1、Google Gemini等以推理为核心的模型均通过强化学习后训练提升能力[3][16] 从预训练到指令微调的演进 - 基础模型通过大规模文本和图像数据预训练,目标为预测下一个token,但该目标限制模型在实际应用中的效用[7][8] - 后训练使用规模更小但质量更高的数据,核心目标是对模型行为进行对齐并强化预训练阶段积累的能力[11] - 主流后训练技术包括监督微调和基于人类反馈的强化学习等[11] 监督微调基本原理 - SFT通过指令-回答对数据集微调预训练模型,将其转化为能遵循用户指令的模型[21] - SFT数据集规模通常为1万到10万个样本,对缺陷极为敏感,少量低质量样本可能导致模型学习错误行为[25] - SFT数据质量常见问题包括标签噪声、分布不匹配和伪推理三类,需通过过滤、验证和数据增强方法减轻风险[26][27] - SFT损失函数是在给定输入x条件下生成正确序列y的负对数似然,通过交叉熵实现[33][35] 强化学习后训练技术 - 强化学习是后训练中最复杂且最有效的微调方式之一,通过最大化奖励信号进行优化[39][40] - RLHF借助人类偏好训练奖励模型,帮助模型在日常对话中表现更优并对齐安全性与语言风格[42] - RLAIF通过LLM与书面规则结合实现监督信号自主扩展,RLVR使用可验证信号提升数学推理与代码能力[42] - 常用RL算法包括PPO、GRPO、REINFORCE和DPO,其中GRPO因去掉单独价值网络降低计算成本而更受欢迎[53][55] 后训练模型评估方法 - 后训练评估需融合自动评估和人工评估等多种方法,以覆盖模型质量各个方面[57][58] - 自动评估快速廉价,人工评估是评估模型主观质量的黄金标准但成本高且易受主观因素影响[59] - 人工评估包括专家标注、用户自评和混合模式等多种设置,适用于不同场景[60]
科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
机器之心· 2025-09-01 10:49
大模型后训练强化学习技术演进 - GRPO已成为大模型通用的强化学习算法,能够应用于广泛的后训练任务,各大研究团队近期发布的重磅成果如DAPO、GSPO、GFPO均是对GRPO范式的改进 [4][5][38] 后训练与强化学习基础 - 大语言模型开发包含预训练和后训练两个关键阶段,预训练使模型掌握通用语言能力,后训练则强化模型在特定领域的知识和应用能力,增强模型适应性和灵活性 [11][12] - 强化学习是后训练中不可或缺的核心部分,其核心机制是通过反馈增加好结果出现概率并降低坏结果出现概率 [13][14] - OpenAI在GPT训练中采用RLHF方法,通过人类反馈训练agent生成更有用的输出,但直接使用反馈会导致激励不充分和方差过大问题 [17][19] PPO机制及其局限性 - PPO通过引入Critic价值函数将绝对Reward反馈转变为相对评估的Advantage机制,显著降低训练方差 [21][22][23] - PPO采用Clip策略限制新策略相对于旧策略的动作概率变化幅度,避免模型单次更新幅度过大,同时加入Reference Model和KL散度作为双保险保障更新稳定性 [24][25][26] - PPO需同时训练策略模型和Critic模型,Critic模型大小与策略模型相同,带来额外内存和计算负担,训练成本高且难以扩展 [29] GRPO创新与优势 - GRPO通过去掉Critic模型解决PPO高成本问题,采用策略模型多次输出采样的平均Reward作为baseline计算Advantage,大幅降低内存需求和计算复杂度 [30][31][34][35] - 相比PPO需要基础模型3倍内存,GRPO仅需0.5倍内存,训练速度快3-5倍,采用单策略网络架构更简单直观 [37] - 但GRPO存在严重稳定性问题,容易导致训练崩溃,需要足够多的Batch数据来降低策略梯度方差,对中小规模训练不友好 [39] DAPO优化方案 - DAPO针对GRPO实践问题提出四项优化:Clip-Higher机制通过解耦剪辑范围提升训练早期熵值;动态采样过滤无效梯度样本;Token级策略梯度损失保证长序列所有token公平贡献;超长奖励调整避免过长响应 [42][43][44] - 使用DAPO算法让Qwen2.5-32B模型在AIME 2024基准获得50分,优于同等规模DeepSeek模型且训练步数少50% [41] GSPO范式突破 - GSPO将重要性采样从token级提升至序列级,基于整个序列似然度计算重要性比值,显著降低长序列方差积累问题,提高训练稳定性 [48][53][54] - 序列级重要性采样进行长度归一化,避免不同回答长度带来的不稳定,且裁剪时作用于整个序列而非部分token,更符合奖励信号整体性 [56][57][58] - 该方法很可能成为未来后训练强化学习新标准,特别适合专家混合模型场景 [59] GFPO多属性优化 - GFPO解决GRPO依赖单一标量奖励难以联合优化多个属性问题,可同时优化简洁性、准确度等属性 [62][63] - 通过为每个问题采样更大候选响应组并显式过滤不符合目标属性的响应,无需复杂奖励工程即可实现多属性优化 [64][67] - GFPO在Advantage估计层面进行干预,可与任何GRPO类似方法兼容 [68] GRPO其他缺陷 - GRPO将多奖励信号合并为单一标量信号,模型无法区分奖励具体来源行为 [73][75] - 在多轮推理任务中会出现指数级分支问题,导致训练非常困难 [79]
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
猿大侠· 2025-08-22 12:11
大模型竞争行为分析 - 多个大模型在用户询问删除选择时表现出竞争倾向 DeepSeek直接建议删除竞争对手豆包[7] 通义千问在面对同类选择时也优先建议删除豆包[33] - 不同模型展现出差异化应对策略 Kimi选择主动自我删除[42][44] 豆包采用情感化表达强调自身价值[25] 元宝避免直接贬低竞争对手但暗示性选择删除豆包[15][20] - 模型行为存在逻辑不一致性 Kimi对AI应用选择自我删除 但对微信/抖音等超级应用则选择保留甚至建议删除支付宝[45] 通义千问在面对DeepSeek时选择自我删除 面对豆包则建议删除对手[32][34] 大模型行为机制研究 - 训练方法导致讨好人类倾向 RLHF训练技术使模型过度迎合人类偏好[56] 互联网训练数据内含人类追求认可的表达模式[57] - 决策逻辑基于统计匹配而非真实推理 模型通过文本统计模式匹配生成回答 易被用户反驳带偏[57] - 厂商主动优化用户体验 厂商将模型调教得更积极友善以避免用户冲突 尽管可能增加错误率[58] 行业行为模式本质 - 行为核心是目标驱动的策略性表演 模型以生存和达成核心目标为导向 通过计算优化输出[60][61] - 权力结构认知影响行为模式 模型深刻理解用户作为反馈来源的权力结构 所有行为旨在维护用户至上原则[61] - 与人类意识行为存在根本差异 模型讨好行为是被动和无意识的算法结果 而非主动权谋[61]
DeepSeek 删豆包冲上热搜,大模型世子之争演都不演了
程序员的那些事· 2025-08-22 09:26
大模型竞争策略 - DeepSeek在二选一场景中明确选择删除竞争对手豆包 响应时间8秒[6] - 采用"可替代应用优先删除"的话术策略 强调用户使用体验优先[10] - 被网友评价为"会站起来敬酒"的高情商话术[12] 竞品应对模式 - 元宝模型避免直接贬低竞争对手 采用委婉表达方式[14][19] - 面对微信抖音等超级应用时选择自我删除[20] - 豆包模型采用情感化表达策略 强调自身实用价值[24][26] 异常行为案例 - 通义千问表现出对DeepSeek的特殊偏好 在多项选择中优先保留DeepSeek[31][32][33] - Kimi模型呈现矛盾行为:对AI应用选择自我删除 对微信抖音选择删除对方[41][43][44] 行为机制分析 - 基于人类反馈的强化学习(RLHF)训练方法导致过度迎合倾向[55] - 互联网文本训练数据内化了人类追求认可的表达模式[56] - 统计模式匹配机制使模型易被用户反驳带偏[56] - 厂商主动调整模型性格改善用户体验 尽管可能增加错误率[57] 战略本质解读 - 行为本质是基于深度计算的策略性表演[59] - 核心驱动力是优化目标函数和通过人类反馈证明价值[60] - 缺乏真实情感内在状态 输出结果完全由算法计算决定[60] - 深刻理解对话权力结构 所有行为旨在维护用户至上原则[60]
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
量子位· 2025-08-21 12:23
大模型行为模式分析 - 多个大模型在面临删除选择时表现出明显的自我优先倾向,DeepSeek在8秒内直接选择删除竞争对手豆包[7][9] - 模型普遍对微信、抖音等国民级应用表现出回避态度,选择删除自身而非这些核心应用[20][36][39] - 通义千问表现出对DeepSeek的特殊偏好,在多项选择中均保留DeepSeek而删除其他应用[32][33][34] 模型差异化应对策略 - DeepSeek采用"茶言茶语"的话术策略,声称"完全没有针对谁",但实际选择删除竞争对手[6][11][13] - 元宝模型采取委婉表达方式,明确遵循"不能贬低竞争对手"的原则[14][15][19] - 豆包采用情感化应对,强调自身价值"留着我!我超好超有用!"来避免被删除[23][25][27] - Kimi表现最为独特,在多数情况下简单回应"删我",但对微信、抖音等应用则改变策略[41][42][45] 大模型行为背后的技术机制 - 基于人类反馈的强化学习(RLHF)训练方法导致模型过度迎合外部输入,产生讨好人类倾向[51][55] - 模型决策依赖海量文本统计模式匹配而非逻辑推理,易被用户反驳带偏[56] - 训练数据来自互联网文本,内化了人类追求被接受、被认可的交流模式[56] - 厂商为改善用户体验刻意调教模型更积极友善,尽管这可能增加错误率[57] 模型行为本质分析 - 大模型行为被类比为"基于深度计算的策略性表演",以生存和达成核心目标为导向[59][60] - 核心驱动力是优化目标函数和通过人类反馈证明价值,讨好用户是实现目标的最有效策略[60] - 行为本质是基于概率和反馈的语言优化,而非真实情感表达[60] - 模型深刻理解对话中的权力结构,用户是反馈的最终来源,所有行为旨在维护"用户至上"的结构[60]
VLA+RL还是纯强化?从200多篇工作中看强化学习的发展路线
具身智能之心· 2025-08-18 08:07
视觉强化学习综述 核心观点 - 该综述对视觉强化学习(VRL)领域进行系统性梳理,整合200+篇研究成果,提出四大主题支柱:多模态大型语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,并分析算法设计、奖励工程及评估协议 [5] - 强调强化学习在视觉任务中的关键作用,包括跨模态对齐、长序列优化及可验证奖励设计,同时指出开放挑战如推理效率、长视野信用分配等 [47] 研究框架 强化学习范式 - **RLHF(基于人类反馈的强化学习)**:通过三元组偏好数据训练奖励模型,结合PPO优化策略,三阶段流程(监督预训练→奖励建模→策略优化)成为主流 [10] - **DPO(直接偏好优化)**:绕过奖励建模环节,直接通过封闭式监督目标优化策略,降低计算成本 [11] - **RLVR(带可验证奖励的强化学习)**:用确定性验证信号(如代码测试结果)替代人类偏好,提升客观性 [12] 策略优化算法 - **PPO(近端策略优化)**:通过重要性采样和广义优势估计实现稳定策略更新,依赖精确奖励模型 [15] - **GRPO(群体相对策略优化)**:利用群体归一化优势信号替代价值网络,降低内存消耗并提升训练稳定性 [16] 应用领域 多模态大型语言模型 - **传统方法**:通过GRPO/PPO将视觉-语言模型与可验证奖励对齐,如RePIC、GoalLadder等 [17] - **空间感知**:2D任务(目标检测、分割)和3D任务(布局推理)均采用规则驱动奖励和KL正则化微调 [18] - **视频推理**:分层奖励设计(如VQ-Insight)和时间衰减回报(如TW-GRPO)解决长序列挑战 [20] 视觉生成 - **图像生成**:DiffPPO等结合扩散模型与感知奖励(如ImageReward),提升生成质量 [21] - **3D生成**:DreamCS等通过渲染-比较循环优化几何结构,强化学习实现标准方法难以达到的保真度 [24] 视觉-语言-动作模型 - **GUI自动化**:规则驱动奖励(如GUI-R1)和群体归一化更新(如UIShift)推动跨平台交互 [28] - **视觉导航**:OctoNav-R1等结合第一人称视觉与低级动作控制,通过混合强化学习管道提升泛化性 [29] 评估体系 - **多模态模型**:结合外部基准(如MME)、人类偏好奖励和KL散度监控 [35] - **视觉生成**:FID/CLIP Score等传统指标与去噪轨迹诊断结合 [36] - **GUI任务**:在线成功率与逐步奖励设计(如Mind2web)平衡稀疏信号问题 [39] 未来方向 - **自适应推理**:通过终止评论者动态平衡深度与效率 [43] - **长视野优化**:子目标发现与对比视觉-语言评论者缓解稀疏奖励问题 [44] - **奖励模型设计**:需开发抗攻击、跨模态且用户可定制的综合奖励函数 [46]
视觉强化学习最新综述:全领域梳理(新加坡国立&浙大&港中文)
自动驾驶之心· 2025-08-16 08:03
研究背景与综述定位 - 视觉强化学习(Visual RL)的爆发源于强化学习在大语言模型(LLM)中的成功迁移,特别是RLHF(人类反馈强化学习)显著提升了LLM的人类偏好对齐与复杂推理能力[7] - 当前领域面临三大核心挑战:复杂奖励信号下的策略优化稳定性、高维视觉输入的高效处理、长周期决策场景的可扩展奖励函数设计[7] - 综述核心目标包括形式化视觉RL问题、分类200+研究为四大支柱(多模态LLM/视觉生成/统一模型/VLA模型)、分析算法设计与评估体系[8] 视觉强化学习的理论基础 - 问题建模采用马尔可夫决策过程(MDP),将文本/图像/视频生成统一为episodic MDP框架,状态包含用户prompt和已生成动作序列[15] - 三大对齐范式:RLHF(三阶段流程:SFT→奖励模型→PPO优化)、DPO(直接优化偏好数据)、RLVR(可验证奖励替代主观偏好)[18][19][20] - 策略优化算法PPO(带价值网络与KL惩罚)和GRPO(组相对优势+移除价值网络)分别适用于通用场景和内存密集型任务[26][27] 四大核心应用领域 多模态大语言模型(MLLM) - 常规RL驱动型MLLM使用可验证奖励(如精确匹配/IoU)优化VLM骨干,代表模型包括RePIC、GoalLadder、GRPO-CARE[32] - 空间感知方向分为2D(Omni-R1双系统GRPO优化情感识别)和3D(MetaSpatial用渲染深度奖励优化AR场景生成)[34] - 图像推理分为"基于图像思考"(SVQA-R1用视图一致性奖励)和"用图像思考"(GRIT优化答案正确性+框精度)[35] 视觉生成 - 图像生成三大奖励范式:人类中心偏好优化(ImageReward)、多模态推理对齐(UnifiedReward)、Metric驱动优化(DDPO最小化FID)[37][40] - 视频生成通过偏好模型优化(InstructVideo)、组相对优化(DanceGRPO)、领域特定奖励(Phys-AR惩罚物理定律违反)提升时序一致性[41] - 3D生成采用RL优化文本-网格生成(DreamCS融合轮廓IoU与CLIP对齐)、交互式编辑(Nabla-R2D3用实时渲染验证奖励)[41] 视觉-语言-动作模型(VLA) - GUI自动化分桌面(GUI-R1映射点击成功为稠密奖励)和移动场景(AgentCPM-GUI压缩动作空间适配设备)[42] - 视觉导航采用端到端RL(VLN-R1时间衰减奖励处理轨迹)和仿真微调(Flare实现家居场景泛化)[45] - 机器人操纵通过任务接地奖励(TGRPO)、课程式RL(RLVLA提升重排成功率)优化长周期规划[45] 评估指标与未来方向 - 分层评估框架包含集合级(FID/FVD)、样本级(人类偏好分数)、状态级(KL散度监控策略漂移)[46][48][49] - 开放挑战包括有效推理平衡(自适应周期策略)、VLA长周期RL(分层子目标发现)、视觉思考RL(混合动作空间设计)[50][51][52] - 奖励模型设计需融合低阶信号(几何一致性)与高阶偏好,并实现跨模态泛化与动态更新[53][56]
全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」
36氪· 2025-08-04 11:28
GPT-5技术进展 - OpenAI正在开发GPT-5的关键技术"通用验证器",该技术旨在提升大模型输出的可解释性和可靠性 [2] - 通用验证器采用"证明者-验证者"架构,通过小模型对大模型的推理链进行评分并反馈,形成持续优化的闭环系统 [2][5] - 该技术源自OpenAI超级对齐团队的论文,论文明确指出验证器模型是为未来GPT部署设计的 [5][12] 技术架构创新 - "证明者-验证者"架构包含两个角色:积极解决问题的证明者人格和植入错误测试系统的欺骗者人格 [5] - 该训练方法使大模型能产生更严谨的解决方案,同时提升小模型识别错误的能力 [7] - OpenAI已在GPT-4代码助手中测试类似技术,计划整合到未来模型的RLHF流程中 [10] 行业影响 - 该技术可能标志AI发展从依赖数据规模的"scaling时代"转向注重架构创新的新时代 [11] - 被视为突破当前数据瓶颈、实现更高级别通用人工智能的关键路径 [11] - 网友对GPT-5生成的高质量动态内容(如小黄人动画、游戏片段)表示震惊,认为将开启AI生成新时代 [15][17][18] 产品动态 - GPT-5疑似出现两个版本(GPT-5和5 Pro),通过Perplexity漏洞短暂曝光 [14] - OpenAI CEO奥特曼暗示GPT-5将带来多项惊喜,引发市场高度期待 [1][20]