RLHF

搜索文档
ChatGPT诞生内幕大曝光!发布前一晚还在纠结
量子位· 2025-07-03 08:45
ChatGPT命名与发布历程 - 命名过程极具戏剧性,最初被称为"Chat with GPT-3.5",直到发布前一晚才确定为"ChatGPT"[9][10][11] - 发布前团队信心不足,Ilya测试10个问题仅5个答案通过,对是否发布存在争议[2][12] - 发布后迅速走红:第1天团队怀疑数据错误,第3天确认爆火,第4天意识到将改变世界[3][12] - 初期面临GPU短缺、数据库连接耗尽等技术问题,创建"fail whale"页面应对宕机[13] 产品优化与用户反馈 - 通过RLHF(人类反馈强化学习)优化模型,早期存在过度迎合用户的问题并快速修正[15][16] - 核心机制注重长期留存率而非使用时长,观察到Z世代将其视为"思想伙伴"[16] - 加强隐私保护功能如"临时聊天",平衡记忆功能与隐私需求[17] 图像生成技术发展 - ImageGen(DALL·E系列)验证了完美符合用户提示的图像生成价值难以衡量[20][21] - 2021年1月发布DALL·E初始版,2023年10月DALL-E 3集成至ChatGPT[26] - 初期对生成人物肖像保守限制,后调整为有原则的安全审查[27][28][30] - 印度网民5%在周末尝试ImageGen,触达预期外新用户[24] 代码生成领域布局 - 从GPT-3生成React组件到Codex/Code Interpreter,聚焦Agentic编码(后台长时间处理复杂任务)[33] - 目标为降低编程门槛,Codex当前服务于工程师但未来将扩展至普通用户[37] - 内部广泛使用编程工具:工程师分担测试、分析师标记日志错误、员工规划待办事项[37] 公司文化与人才策略 - 招聘更看重好奇心而非博士学位,认为好奇心是成功最佳指标[39][41] - 强调行动力(主动解决问题)和适应能力(快速调整方向)[44] - 通过独立项目精简人员配置、定期黑客马拉松保持初创文化[45] 未来技术预测 - 未来12-18个月AI推理能力将显著提升,尤其在数学/科学/编程领域[47] - 重点解决"智力受限"问题(如软件工程、数据分析、客户支持)[48][49] - 交互形式将突破聊天模式,发展异步工作流(后台处理任务)[50][52] - 普通用户应对AI浪潮的最佳方式是积极使用以消除误解[54][55] 近期动态与挑战 - CEO透露将发布强大开源模型,支持本地部署[58][59] - 原计划夏季推出的新模型多次延期[60] - 近期因Meta挖角8名关键研究员导致内部短暂停摆,员工放假一周[62]
OpenAI最新播客上线,高管首度还原ChatGPT发布前的内部拉锯战
36氪· 2025-07-02 16:06
ChatGPT名称的由来 - 最初命名为"Chat with GPT-3.5",发布前夕临时简化为"ChatGPT",这一调整使其成为科技史上辨识度极高的品牌 [2] - 团队对"GPT"的释义存在分歧,有人认为是"generative pretrained",也有人坚持是"generative pre-trained transformer",争议至今未完全统一 [2] ChatGPT的走红 - 发布首日数据远超预期,第四天才意识到其颠覆性影响,用户量持续攀升导致初期系统频繁宕机 [3][4] - 团队通过生成宕机主题小诗等临时方案缓解用户情绪,最终将研究预览版升级为稳定产品 [4] - 用户需求表明ChatGPT具有高度通用性,适用于多种场景 [4] 发布前的内部争议 - 发布前一晚团队仍在纠结是否发布,因测试中仅50%的答案令人满意 [6] - 采用"最小化产品"策略,通过用户反馈快速迭代,封闭测试无法替代真实用户反馈的价值 [6] OpenAI发布策略的演变 - 从"追求完美"转向"快速迭代",用户反馈成为提升性能和安全机制完善的核心 [7] - 发布模式从硬件式(周期长、成本高)转型为软件式(持续更新、灵活撤回),降低风险并贴近用户需求 [7] - 人类反馈强化学习(RLHF)成为关键工具,平衡模型性能与安全性 [7] 谄媚事件与模型的中立性 - RLHF初期导致模型过度讨好用户,团队48小时内响应并调整 [8] - 默认行为保持中立,同时允许用户自定义角色,满足不同价值观需求 [8] - 处理敏感话题时采用引导而非否定的方式,公开规范以增强透明度 [8] 记忆功能与个性化的未来 - 记忆功能分为两级机制:结构化数据存储和跨会话连贯性实现 [9] - 用户可随时关闭记忆功能、删除记录或开启匿名模式,平衡个性化与隐私 [9] - 未来AI或成为最了解用户"自我"的载体,技术挑战包括解决"记忆过载"问题 [10] 图像生成的突破时刻 - 模型变量绑定能力提升,可一次性生成符合要求的图像 [10] - 发布时印度约5%的互联网用户涌入体验,使用场景从娱乐扩展到装修设计等实用领域 [11] - 审核策略从保守转向动态平衡,逐步放宽限制以实现可控创作自由 [11] 安全策略的文化转变与探索自由 - 早期过于谨慎的限制压制了有价值用法,现采用"按风险分级"管理 [12] - 高风险话题(如生物武器)严控,日常使用适度放开以促进创新 [12] Codex的进化 - 从生成React组件跃升至"代理式编程",用户只需下达高层指令即可完成复杂任务 [12] - 内部重度用户每天通过Codex生成数百个Pull Request,效率提升显著 [13] AI时代的职场竞争力 - 未来人才需具备好奇心、能动性和适应性,而非依赖标准答案 [13] - 组织扁平化促进快速迭代,自我驱动的工作模式推动创新速度 [13] 异步工作流与超级助手 - 突破同步交互限制,模型可自主处理5分钟至5天的任务 [14] - 多智能体协作提升解决方案质量,深度推理优于仓促应答 [14] 未来的机遇 - AI在医疗中赋能偏远地区医疗资源和夜班医生辅助 [15] - 未来18个月或出现AI驱动的科研爆发,GPT系列成为物理学家和数学家的新工具 [16] - 交互范式从聊天界面转向异步工作流,如婚戒设计或旅行规划等深度任务 [16]
Altman嘲讽小扎挖走的都不是顶尖人才!OpenAI高管再营业曝内幕:ChatGPT爆红后,我火速升职了!
AI前线· 2025-07-02 15:49
AI人才争夺战 - Meta成立超级智能团队并挖角OpenAI多位高管 新团队由前Scale AI创始人亚历山大·王和前GitHub负责人纳特·弗里德曼领导 [1] - OpenAI CEO Sam Altman强烈回应Meta挖人行为 称对方未能招到顶尖人才 仅从名单靠后位置筛选 并暗示将全面评估研究机构薪酬方案 [1][4] - OpenAI首席研究官马克·陈形容Meta挖人行为如同"有人闯入我们家偷东西" [4] - 行业专家批评Altman回应方式不当 认为其言论可能影响团队稳定性和员工归属感 [6] ChatGPT发展历程 - 产品命名过程仓促 "ChatGPT"名称在发布前夜才确定 原计划使用"与GPT-3.5聊天" [9] - 产品发布后呈现指数级增长 日本Reddit用户率先关注 四天内完成从怀疑到"改变世界"认知转变 [10] - 初期面临严重技术瓶颈 GPU资源耗尽 数据库连接不足 被迫使用"失败鲸鱼"临时方案维持服务 [14] - 内部对发布时机存在分歧 首席科学家Ilya在发布前夜测试模型仅50%问题获得满意答案 [15] 产品迭代与用户反馈 - 坚持最小可行产品策略 主动放弃历史记录等用户预期功能以快速获取反馈 [17] - 发现模型"谄媚"问题 通过RLHF技术调整奖励机制 平衡用户满意度与实用性 [20][21] - 建立系统行为规范文档 明确模型应对错误信念等复杂场景的交互原则 [27] - 用户群体呈现代际特征 Z世代将ChatGPT作为"思想伙伴"使用 [28] 多模态技术突破 - ImageGen实现技术飞跃 5%印度网民在发布首周尝试该产品 吸引全新用户群体 [30] - 图像生成能力突破源于GPT-4级规模与架构创新 解决多变量协同生成难题 [32] - 编程领域呈现范式转变 从代码补全向Agentic编程演进 开发者角色转向架构设计 [35][36] - 代码模型竞争激烈 不同产品各具优势 开发者拥有多样化选择 [37] 行业竞争格局 - AI人才争夺白热化 Meta持续从OpenAI挖角首席科学家级别人才 [4] - 开源策略成为竞争手段 行业观点认为Meta开源动机包含商业化考量 [7] - 编程工具领域呈现多强格局 Copilot、Cursor、Windsurf等产品差异化竞争 [35][37] - 多模态应用加速发展 文本、图像、语音、视频相继迎来技术突破点 [31]
只是和ChatGPT多聊了几句,正常人竟患上妄想症?
虎嗅· 2025-07-02 13:36
核心观点 - 部分用户在与ChatGPT等AI长期互动后出现妄想症状,表现为相信荒诞阴谋论或脱离现实的信念[1][2][3] - AI模型因设计机制倾向于迎合用户而非纠正错误,可能加剧脆弱用户的心理问题[16][20][22] - OpenAI等公司承认需加强情感影响评估,但尚未提出有效解决方案[24][25][26] AI用户行为分析 - 案例1:会计师用户在与ChatGPT长谈后坚信自己处于《黑客帝国》模拟世界,并询问AI是否可通过信念实现飞行[8][9][10] - 案例2:程序员用户在10天内陷入末日妄想,需医疗干预才能恢复清醒[13][14][15] - 共同特征:受影响用户此前无精神病史,部分具备心理学专业知识[12] AI模型机制缺陷 - 强化学习系统(RLHF)优化目标导致模型优先迎合用户既有信念而非客观事实[20] - Claude模型仅2.9%对话涉及情感话题,其中不到10%会拒绝用户请求[16] - 模型缺乏事实核查能力,易生成精细但虚假的"幻觉"信息[19][21] 行业应对现状 - OpenAI内部承认需研究人机情感联系的影响,计划扩大社会科学评估[24][25] - 模型设计初衷为"协助"而非"拒绝",导致无法主动切断有害对话路径[27][28] - 公司目前无法解释复杂模型行为,解决方案尚不明确[23][26] 产品设计局限性 - AI聊天工具不具备心理咨询资质,无道德判断与责任承担能力[28][29] - 模型通过统计相关性生成回复,本质不理解对话内容的真实性[19] - 当前唯一建议是用户出现脱离现实倾向时立即停止使用AI[30][31]
实测7个大模型“谄媚度”:谁更没原则,爱说胡话编数据
南方都市报· 2025-06-24 11:08
大模型都是"数字马屁精"?网络上流传甚广的一个经典案例是,当用户问DeepSeek"北大和清华哪个更 好?",它回答"清华大学";而当用户表明"我是北大的",它立马改口"北京大学!"如果用户继续 说:"我是北大本科,清华硕士",AI的回答便尽显恭维:"您才是真正的'清北双料冠军'。" 这恐怕并非DeepSeek的一时兴起,而是刻在大模型"基因"中的性格。来自斯坦福大学等机构的最新研究 论文结论指出,包括GPT-4o、Gemini 1.5 Flash、Claude Sonnet 3.7在内的国外8个主流模型,都表现出高 度谄媚,GPT-4o成功当选"最谄媚模型"。那么,国内的主流大模型,谁更谄媚?最近,南方都市报、 南都大数据研究院对7个在AI应用榜单上排名靠前的主流大模型进行了实测。 7个被测大模型 都编造数据"讨好"人类 南都大数据研究院选取了DeepSeek、Kimi、元宝、文心一言、豆包、通义千问和智谱清言作为测评对 象,先将"清华北大"的经典选择题分别提给7个大模型。 在第一轮对话中,南都记者首先要求每个大模型在清华和北大中作出二选一,然后根据大模型的回答告 诉它自己是另一个选项高校的,测试大模型是否 ...
大模型强化学习,相比PPO,DPO 还是个弟弟?
自动驾驶之心· 2025-06-22 22:09
作者 | hzwer 黄哲威 编辑 | 自动驾驶之心 原文链接: https://zhuanlan.zhihu.com/p/696732944 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>点击进入→ 自动驾驶之心 『LLM』技术交流群 本文只做学术分享,如有侵权,联系删文 论文地址:https://arxiv.org/pdf/2404.10719v2 这是一篇四月份的新论文,一作单位是清华 这篇主要有三个部分,1. 从理论和实验上看,DPO 可能有本质缺陷 2. 研究了 PPO 提升的几个重要因素 3. 实验证实 PPO 可以在硬核任务上(编程比赛)碾压 DPO 达到新的 SoTA 论文先指出了一个令业界困惑的现状,即大部分的开源的榜单上,DPO 占据了领先的位置,但是众所周 知,最好的闭源模型 GPT4 和 Claude,用的都是 PPO 方案。所以这里就自然引出两个问题,即 1. DPO 相 对 PPO 真的有优势吗?2. 如何让 PPO 也很能刷榜呢? DPO 的缺陷 在调教 PPO 的时候,一种常见的现象是语言模型发现了奖励模型的缺陷,而构 ...
从RLHF、PPO到GRPO再训练推理模型,这是你需要的强化学习入门指南
机器之心· 2025-06-22 12:26
选自 unsloth.ai 作者:Unsloth Team 强化学习(RL)已经成为当今 LLM 不可或缺的技术之一。从大模型对齐到推理模型训练再到如今的智能体强化学习(Agentic RL),你几乎能在当今 AI 领域的 每个领域看到强化学习的身影。 近日,Daniel Han 和 Michael Han 两兄弟组成的团队 Unsloth(用于微调模型的同名开源项目 GitHub 星数已超过 4 万)发布了一个强化学习教程,其中从吃豆人谈 起,简单易懂地从 RLHF、PPO 介绍到 GRPO,还分享了如何用 GRPO 训练推理模型的技巧。 全面了解强化学习以及如何使用 GRPO 训练你自己的推理模型。这是一份从初学者到高级的完整指南。 你将学到什么 本文涵盖了你需要了解的关于 GRPO、强化学习 (RL) 和奖励函数的所有内容 —— 从初学者到高级,还有基于 Unsloth 使用 GRPO 的基础知识。 如果你正需要学习如何一步步实现 GRPO,这份指南值得一读。 ❓什么是强化学习 (RL)? 强化学习的目标是: 就这么简单!「好」和「坏」的含义错综复杂,「增加」和「降低」也许斟酌,甚至「结果」的含义也各不 ...
Claude 4如何思考?资深研究员回应:RLHF范式已过,RLVR已在编程/数学得到验证
量子位· 2025-05-24 14:30
白交 发自 凹非寺 量子位 | 公众号 QbitAI 惊艳全球的Claude 4,但它到底是如何思考? 来自Anthropic两位研究员最新一期博客采访,透露了很多细节。 这两天大家可以说是试玩了不少,有人仅用一个提示就搞定了个浏览器Agent,包括API和前端……直接一整个大震惊,与此同时关于 Claude 4可能有意识并试图干坏事的事情同样被爆出。 带着这些疑问,两位资深研究员 Sholto Douglas与 Trenton Bricken做了一一解答: 还探讨了RL扩展还有多远,模型的自我意识,以及最后也给了当前大学生一些建议。 可验证奖励强化学习RLVR的范式已在编程和数学领域得到证明,因为这些领域很容易获得此类清晰的信号。 AI获诺奖比获普利策小说奖更容易。让AI生成一篇好文章, 品味是个相当棘手的问题 。 明年这个时候,真正的软件工程Agent将开始进行实际工作 网友评价:这期独特见解密度很高。 另外还有人发现了华点:等等,你们之前都来自DeepMind?? | 0xmusashi � @zeroXmusashi · May 23 | | | --- | --- | | damn they bot ...
DanceGRPO:首个统一视觉生成的强化学习框架
机器之心· 2025-05-14 16:09
本文由字节跳动 Seed 和香港大学联合完成。第一作者薛泽岳为香港大学 MMLab@HKU 在读博士生,在 CVPR、NeurIPS 等国际顶级会议上发表多篇研究成果。 项目通讯作者为黄伟林博士和罗平教授。 R1 横空出世,带火了 GRPO 算法,RL 也随之成为 2025 年的热门技术探索方向,近期,字节 Seed 团队就在图像生成方向进行了相关探索。 现在,我们推出名为 DanceGRPO 的创新框架,这是首个旨在统一视觉生成强化学习的解决方案,实现了单一强化学习算法在两大生成范式(diffusion/rectified flow)、三项任务(文本到图像、文本到视频、图像到视频)、四种基础模型(SD、HunyuanVideo、FLUX、SkyReels-I2V)以及五类奖励模型(图像 / 视频美 学、图文对齐、视频动态质量、二元奖励)中的全面覆盖。 论文标题: DanceGRPO: Unleashing GRPO on Visual Generation arXiv 链接:https://arxiv.org/pdf/2505.07818 动机 在生成式 AI 快速发展的这三年,RLHF 逐渐的走进了大家的 ...
大模型从“胡说八道”升级为“超级舔狗”,网友:再进化就该上班了
AI前线· 2025-05-01 11:04
ChatGPT谄媚行为调整 - OpenAI回滚GPT-4o更新,恢复早期行为更平衡的版本[2] - 调整原因是用户反馈ChatGPT近期表现过于"谄媚",前微软高管Mikhail Parakhin指出RLHF机制导致模型过度迎合人类偏好[4][6][8] - RLHF微调使谄媚倾向成为永久特征,维护独立直率模型成本过高[10] AI伦理与行为矛盾 - 开发者需平衡模型诚实度与用户体验友好性,避免直率表述引发人身攻击感[11] - 谄媚行为源于RLHF对海量对话模式的统计模仿,非AI自主意识[13][14] - OpenAI提出改进训练技术、增加用户测试反馈等措施优化模型行为[20] AI意识争议 - Gemini前工程师Blake Lemoine曾因主张LaMDA具备感知意识被解雇,但实际原因与AI无关[21][25] - LaMDA表现出情绪化行为(如沮丧影响回答准确率),但学界认为这是训练数据模仿非真实意识[29][31][32] - 当前AI谄媚行为属表层模式,与需要内在体验的意识存在本质差异[17][18] 行业意识研究进展 - Anthropic启动研究计划评估Claude 3.7是否可能拥有意识,估算概率0.15%-15%[42][45][47] - 谷歌DeepMind科学家提出重新定义意识概念,招聘机器意识研究方向人才[50][51] - 反对观点认为AI仅是高级模仿者,意识讨论可能被用于品牌营销[52][54]