AI范式转换
搜索文档
Transformer作者爆料GPT-5.1内幕,OpenAI内部命名规则变乱了
36氪· 2025-12-01 09:25
AI发展现状与趋势 - AI发展并未放缓,而是一条非常平滑的指数曲线,类似于摩尔定律 [4][7] - 外界感觉“变慢”的原因是AI底层范式已从预训练转向推理模型,这是继Transformer后的关键转折 [4][7] - 预训练处于S曲线上升后期,而推理模型仍处于发展初期,进步速度会相当快 [7][10] 推理模型的技术演进 - 推理模型本质是在给出答案前进行思考(思维链),允许使用工具如浏览网页 [11] - 相比于传统梯度下降训练,推理模型更多使用强化学习,通过奖励机制推动模型获取更好答案 [11] - 模型通过强化学习学会纠正自身错误,未来将转向更复杂的强化学习,融入更多人类偏好 [11] GPT-5.1版本更新实质 - GPT-5.1并非小版本更新,而是一个巨大的稳定性迭代,改进集中在后训练阶段 [14][15] - 改进包括增加安全性、减少幻觉以及添加多种风格选择(如书签子、专业) [15] - 版本命名规则改变,以用户体验为导向,内部通过蒸馏技术整合多项目成果,缩短迭代时间 [17] 模型能力与挑战 - GPT-5能解决奥林匹克竞赛题,但在小学一年级数奇偶数题目上错误百出,忽略共享点导致误判 [19][20] - 短板在于缺乏足够多模态能力,未能将推理经验迁移到相似场景 [20] - 后续训练将强化多模态推理和上下文推理迁移能力 [20] 未来AI突破方向 - 多模态推理将成为下一个突破点,目前处于起步阶段,强化学习将助其提升 [4][13] - 家用机器人可能成为继ChatGPT后最直观的AI革命,取决于多模态能力和通用强化学习的进步 [34][36] - 硬件基础迅速成熟,将协同多模态和物理世界推理能力,实现家用机器人能力跃迁 [36] AI对工作的影响 - AI不会让人类完全失去工作,高风险、高关注度场景仍倾向于依赖人类专家经验 [32][34] - 基础工作的可替代性变高,工作内容将出现变化,但人类不会无事可做 [34] Transformer诞生与OpenAI文化 - Transformer八位共同作者从未在物理房间共同出现,但从不同角度共同构建了模型 [26] - 当时业界不认同用同一模型处理多任务的想法,但团队坚信并证实了其正确性 [26] - OpenAI组织架构灵活,根据项目自发组队,内部GPU资源有限,项目间存在资源竞争 [29]
Transformer作者爆料GPT-5.1内幕!OpenAI内部命名规则变乱了
量子位· 2025-11-30 19:30
AI发展现状与趋势 - AI发展并未放缓,而是呈现平稳的指数级增长,类似于摩尔定律,其进步由新技术、算力提升和工程优化共同驱动 [13][15][16][17] - 行业底层范式正经历从预训练模型向推理模型的静悄悄但本质性的转换,其意义不亚于Transformer的诞生 [1][2][18][19] - 外界感觉进展变慢的原因包括:预训练处于S曲线上升后期,投入产出比下降;行业重心转向更小、更便宜但质量相当的模型 [19][21] 推理模型的技术特点 - 推理模型的核心在于思维链,即在给出答案前先进行思考,并可使用工具(如浏览网页)以提升答案准确性 [23][27][28] - 训练方式从传统的梯度下降转向强化学习,通过奖励机制和细致的数据准备来优化模型,未来将应用更复杂的强化学习 [29][30] - 多模态推理是下一个突破点,目前仍处于起步阶段,强化学习将助力其进一步提升 [9][32] OpenAI模型迭代策略 - GPT-5.1并非简单的小版本迭代,而是一次巨大的稳定性迭代,改进集中于后训练阶段,如增强安全性、减少幻觉、增加风格选择 [34][36] - 版本命名规则转变为以用户体验为导向,例如GPT-5为基础模型,GPT-5.1为能力更优版本,Mini为更小更快的版本 [38] - 内部采用多项目并行(强化学习、预训练等)再通过蒸馏技术整合的灵活开发模式,大大缩短了模型迭代时间 [38] 模型能力与挑战 - 模型能力实现质的飞跃,例如ChatGPT从直接记忆答案转变为主动推理,Codex已改变程序员的工作流程 [23][24] - GPT-5.1在复杂任务(如奥林匹克竞赛题)上表现优异,但在需要多模态推理和上下文迁移的简单任务(如奇偶数判断)上仍存在明显短板 [41][42] AI未来应用展望 - AI不会让人类完全失去工作,高风险、高关注度场景仍将依赖人类专家,但基础工作的可替代性将提高,工作内容将发生变化 [10][62][65][66] - 家用机器人被视为继ChatGPT之后最直观的AI革命,其进展取决于多模态能力、通用强化学习和物理世界推理的突破 [11][67][69] Transformer与OpenAI背景 - Transformer的八位共同作者从未在同一物理房间共同工作,当时业界对单一模型处理多任务的想法普遍不理解 [50][51] - OpenAI内部组织架构灵活,根据项目自发组队,但存在GPU资源竞争,预训练消耗资源最多,其次是强化学习和视频模型 [55][56][57]