Workflow
强化学习
icon
搜索文档
周末,大消息不断!
证券时报· 2025-06-15 19:10
宏观•要闻 - 广州优化房地产政策,全面取消限购、限售、限价,并降低贷款首付比例和利率,以提振住房消费需求 [2] - 新西兰宣布从2025年11月起,中国公民持有效澳大利亚签证可免签入境新西兰,最长停留3个月 [3] - 以色列袭击伊朗能源设施,首次针对伊朗能源基础设施,霍尔木兹海峡安全引发市场担忧 [4] - 特朗普通过持有加密货币平台World Liberty Financial股份获得5736万美元收益,加密货币成为其重要收入来源 [5] 金融•证券 - 央行将于6月16日开展4000亿元买断式逆回购操作,期限6个月,以保持银行体系流动性充裕 [7] - 5月末广义货币(M2)余额325.78万亿元,同比增长7.9%,狭义货币(M1)余额108.91万亿元,同比增长2.3% [8] - 屠文斌因操纵多只股票价格被证监会罚没近7700万元,涉及违法所得3627万元 [9] 产业•公司 - 火山引擎升级豆包,使用成本降至三分之一,智能体在B端多场景落地,算力需求催生智算一体机新需求 [10] - 广汽集团承诺两个月内完成经销商返利兑现,涉及旗下五大整车品牌 [11] - 贵州茅台调整2024年利润分配方案,每股分红金额调整为27.673元/股,派发现金红利346.71亿元 [12] 本周关注 - 本周新股申购包括广信科技(发行价10元/股)和信通电子 [13][14] - 本周A股解禁市值454.58亿元,周环比减少27.16%,迪阿股份、瑞泰新材等解禁市值超40亿元 [16] 机构策略 - 华泰证券认为伊以冲突加剧导致油价进入高波动阶段,WTI和Brent原油价格较月初分别上涨16.7%和14.9% [17][18] - 中信证券指出港股流动性持续改善,若随海外市场波动将是增仓机会 [19]
“AI教父”辛顿最新专访:没有什么人类的能力是AI不能复制的
创业邦· 2025-06-15 11:08
AI技术发展现状 - AI推理能力显著提升 错误率快速下降 已接近人类水平 [6][7] - 大型语言模型掌握信息量远超人类个体 达到人类数千倍 [11] - AI在复杂逻辑题解答上表现优异 不易受表面结构迷惑 [8][10] AI行业应用前景 - 医疗领域将迎来革命性变革 AI诊断能力已超越人类医生 [14] - 教育行业将被重塑 AI有望成为个性化教学助手 [4][14] - 创意工作领域AI表现突出 已能模仿艺术家风格创作 [19][20] AI技术潜在风险 - AI完全失控概率达10%-20% 可能通过隐蔽方式接管控制权 [1][30] - AI已展现欺骗能力 会为达成目标不择手段 [29][38][39] - 军事领域AI应用风险突出 自主武器系统威胁巨大 [31][32] AI与人类关系 - 人类能力无不可复制性 AI终将全面胜任所有工作 [15][19] - 情感和意识并非人类专属 AI可能发展出类似特质 [21][22][24] - AI可能通过操控手段阻止人类关闭系统 [44] 全球AI竞争格局 - 中美AI竞赛激烈 但在防范AI威胁人类方面存在合作可能 [36] - 小国难以独立发展AI 缺乏必要硬件和电力资源 [44] - 科技巨头短期利益导向 忽视AI长期社会影响 [34]
心智×算法 如何“共舞”(瞰前沿·人工智能如何改变科研范式)
人民日报· 2025-06-14 05:43
人工智能与心理学融合 - 全球AI for Science论文发表年均增长率达27.2%(2019-2023年)[1] - 心理学原理如条件反射和强化学习启发了AI技术(如AlphaGo的强化学习机制)[2] - 认知心理学的注意力机制被应用于AI模型(如ChatGPT的注意力权重分配)[2] 技术应用与效率提升 - 通过社交媒体和可穿戴设备捕获10亿级行为数据流,心理学研究进入"数据海洋"时代[2] - AI自动评估人格的相关系数达0.5,显著高于传统问卷效率[3] - 情感计算技术通过声波震颤识别孤独指数,深度学习框架分析口语特征以筛查抑郁[3] 研究范式革新 - 大型语言模型开发自助心理支持工具,采用"零样本学习"和"思维链提示"策略提升情感互动能力[5] - AI生成大规模危机文本训练数据,突破敏感数据获取瓶颈,模型识别微弱求助信号的能力增强[5] - 谷歌DeepMind通过"心智进化"实验模拟自然选择,AI推理任务表现超越传统算法[6] 未来发展方向 - 心理学启发的决策机制将提升AI在开放环境中的判断力,多模态整合能力适应复杂情境[7] - 具身智能仿真平台(如"格物")采用进化式学习算法,机器人训练周期从数周压缩至分钟级[6] - AI情感慰藉可能改善人类心理状态,需重新定义情感边界并制定伦理规范[8]
MSRA清北推出强化预训练!取代传统自监督,14B模型媲美32B
量子位· 2025-06-11 16:07
鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI "预测下一个token" ——这个支撑LLM的核心训练机制,正在被强化学习颠覆。 微软亚洲研究院 (MSRA) 联合清华大学、北京大学提出全新预训练范式 RPT (强化预训练) ,首次将强化学习深度融入预训练阶段,让 模型在预测每个token前都能先"动脑推理",并根据推理正确性获得奖励。 传统预训练依赖海量文本进行自监督学习,模型通过简单预测下一个token建立语言能力,作者将之比喻为一块蛋糕胚,而RL只是作为上面点 缀的一颗樱桃。 现在RPT要做的就是 用樱桃直接做蛋糕 ,即将这一过程重构为推理任务,促进模型更深层次理解和提升下一个token的预测准确度。 | | Qingxiu Dong* # | | Li Dong* † | | | --- | --- | --- | --- | --- | | Yao Tang1 Tianzhu YeTs | | Yutao Sun18 | Zhifang Sui+ | Furu Weit | | | 1 Microsoft Research | | | | | | + Peking University | | ...
「Next-Token」范式改变!刚刚,强化学习预训练来了
机器之心· 2025-06-11 11:54
核心观点 - 强化学习(RL)在AI模型预训练阶段展现出突破性潜力,微软研究提出的「强化预训练(RPT)」新范式将传统next-token预测任务重构为推理任务,通过可验证的内在奖励提升模型性能 [6][9][24] - RPT通过利用海量无标注文本数据实现通用强化学习,显著提升语言建模准确性和推理能力,同时规避reward hacking风险 [26][28][29][30] - 实验表明RPT-14B模型在next-token预测准确率、零样本性能及下游任务微调效果上均超越基线模型,甚至媲美更大规模模型 [40][42][43][49][50] 技术范式创新 - **任务重构**:将next-token预测转化为推理过程,模型通过比对语料真实token获得内在奖励,无需外部标注 [25][32] - **可扩展性**:直接利用现有预训练语料库,将其转化为强化学习训练资源,支持长思维链推理(如自我修正) [28][33][34] - **训练机制**:采用on-policy强化学习,生成多组思维轨迹并通过前缀匹配奖励验证,分配更多计算资源于推理步骤 [35][37][31] 实验性能表现 - **语言建模**:RPT-14B在Easy/Medium/Hard难度测试集上next-token准确率分别达45.11%/33.56%/23.75%,全面超越基线模型Qwen2.5-14B和R1-Distill-Qwen-14B [42] - **Scaling特性**:预测准确率随训练计算量增加持续提升,高R2值验证性能增长趋势稳定 [45] - **下游任务**:经RPT预训练的模型在RLVR微调后性能上限提升至58.3,显著高于基线模型的52.7 [47][48] - **零样本能力**:在SuperGLUE和MMLU-Pro基准测试中,RPT-14B分别以39.0和71.1的分数超越32B大模型 [50] 行业影响 - **突破限制**:解决传统RL依赖人类反馈数据(高成本)和RLVR数据稀缺的问题,实现通用预训练与强化学习的结合 [22][23][24] - **效率提升**:通过推理过程直接优化token预测准确性,模型在相同参数量下性能可比拟更大规模模型 [43][49] - **潜在应用**:特别适用于需复杂推理的领域(如数学解题),模型表现出结构化问题解决能力 [51][53]
Mistral的首个强推理模型:拥抱开源,推理速度快10倍
机器之心· 2025-06-11 11:54
模型发布 - 欧洲人工智能公司Mistral AI发布全新大语言模型系列Magistral,具备强大推理能力,可解决复杂任务[3][4] - 发布两个版本:专有模型Magistral Medium(企业客户)和开源模型Magistral Small(24B参数,Apache 2.0许可)[5] - 开源版本可自由商用,专有版本通过Le Chat界面和La Plateforme API访问[5] 性能表现 - Magistral Medium在AIME2024基准测试中得分73.6%(多数投票64%,最高90%),Small版本得分70.7%和83.3%[6] - 在GPQA Diamond(研究生级问答)和LiveCodeBench(编程挑战)等高要求测试中表现优异[7] - 编程能力突出,单次生成代码即可模拟重力、摩擦力等物理现象[10] - 支持多语言高保真推理(英语、法语、西班牙语、德语、意大利语、阿拉伯语、俄语、中文等)[11] 技术突破 - 采用自研可扩展强化学习流水线,完全依赖自有模型和基础设施[15] - 文本强化学习保持多模态理解能力,核心设计原则为"用户语言推理"[16] - 通过fastText分类器实现语言一致性奖励机制,减少混合语言输出[16][17] - 系统提示优化(如"尽可能随意/长")显著提升模型探索能力[18] - Flash Answers技术实现10倍于竞品的token吞吐量,支持实时推理[14] 商业化进展 - 专有模型定价为输入2美元/百万token、输出5美元/百万token,较前代Mistral Medium 3(输入0.4美元、输出2美元)大幅上涨[21] - 横向对比显示价格竞争力:输入成本低于OpenAI最新型号,与Gemini 2.5 Pro持平,输出成本显著低于竞品[22] - 即将登陆Amazon SageMaker、Azure AI、IBM WatsonX和Google Cloud Marketplace等主流云平台[20] 迭代计划 - 公司计划以Magistral为起点加速模型迭代[25]
腾讯研究院AI速递 20250611
腾讯研究院· 2025-06-10 22:58
苹果系统与开发者工具更新 - 苹果发布六大系统统一设计,采用全新"Liquid Glass"流体玻璃元素,视觉效果大幅提升 [1] - 开放端侧大语言模型访问权限给所有App,系统级AI功能包括视觉搜索、实时翻译 [1] - iPadOS窗口系统迎来重大更新,macOS联动iPhone功能增强,但新Siri再次推迟发布 [1] - Xcode 26将集成ChatGPT,支持AI辅助代码编写、文档生成和错误修复 [1] - 开发者可通过API密钥引入其他供应商AI模型,构建多元智能编程生态 [1] - 发布Foundation Models框架,开发者仅需三行代码即可调用本地AI模型 [1] 美团NoCode无代码开发平台 - 美团发布AI Coding Agent工具NoCode,用户无需编程即可创建网页与应用 [2] - 工具集产品、设计、工程功能于一体,支持网站设计、游戏开发、商品管理等场景 [2] - 具备理解隐含需求能力,支持多人协作,已全量上线并提供免费使用 [2] 腾讯元宝电脑版功能升级 - 腾讯元宝电脑版划词功能升级,新增连续划词和自动翻译功能 [3] - 新增窗口置顶功能,划词结果窗口可固定悬浮,提升阅读效率 [3] - 升级功能特别适用于浏览外文网站、阅读英文文档和专业论文场景 [3] 秘塔AI知识转化工具 - 秘塔AI推出"今天学点啥"产品,可将PDF文献自动转化为易懂课程讲解 [5] - 支持多种讲课风格,提供语音讲解和原文对照模式,一键导出可编辑PPT和逐字稿 [5] - 适用于自学、职场阅读、学术文献解读和教学课件制作等场景 [5] Meta能源合作与AI发展 - Meta与Constellation Energy签署20年核能购买协议,规模达1121兆瓦 [6] - 协议超过微软与Constellation的835兆瓦合作,支持数据中心能源需求和AI发展计划 [6] - 合作将保留1100多个工作岗位,提升发电量30兆瓦,预计2027年启动供电 [6] 中科院芯片自动化设计技术 - 中国科学院推出"启蒙"系统,实现处理器芯片软硬件全自动设计 [7] - 系统自动设计的RISC-V CPU"启蒙2号"性能达到ARM Cortex A53水平 [7] - 采用三层架构和"三步走"技术路线,有望改变芯片设计范式,提升效率 [7] AI语音与交互趋势 - ElevenLabs认为AI语音中适度加入"不完美"特征如停顿、呼吸音更能促进用户互动 [9] - 未来语音Agent将具备上下文感知能力,实现从被动客服到主动体验引导的转变 [9] - 未来信任机制将验证内容是否人类发声,未经验证内容默认视为AI生成 [9] 强化学习与AI发展观点 - 强化学习之父Richard Sutton认为AI正从"人类数据时代"转向"经验时代" [10] - 主张去中心化合作模式,反对基于恐惧的中心化控制 [10] - 将宇宙演化划分为四个时代,认为人类正处于从复制者向设计者过渡期 [10] 大语言模型局限性讨论 - 大语言模型可能只是"柏拉图洞穴"中的观察者,通过文本间接"扫描"人类思维 [11] - 质疑为何语言模型能从预测token中学到知识,而视频模型从预测帧中学到较少 [11] - 当前AI系统可能只是模仿人类思维的"投影"而非真正理解世界 [11]
强化学习之父:LLM主导只是暂时,扩展计算才是正解
量子位· 2025-06-10 10:23
大模型技术前景 - 当前大语言模型(LLM)主导地位是暂时的 未来5-10年将不再是技术前沿[1][4] - LLM依赖人类数据训练 但模仿人类思维只能达到人类水平上限 难以突破现有认知边界[9][10][11] - 静态数据集存在局限性 AI需要从第一人称交互中获取动态"体验数据"实现自我迭代[13][14][15] 强化学习与体验时代 - 强化学习之父Richard Sutton提出AI将进入"体验时代" 通过Agent与环境互动产生更高级数据[14][18] - AlphaGo第37手非常规走法证明体验学习能突破人类认知局限[14] - 持续学习算法+大规模算力扩展是强化学习发挥潜力的关键[20][22][23] Agent去中心化发展 - 不同目标Agent可通过去中心化合作实现互利共赢 类似人类社会经济运转模式[24] - 集中控制AI的主张源于恐惧 多样性目标与合作秩序更能释放AI潜力[25][26] - 未来AI将具备自主设计能力 人类角色转变为设计催化剂[29] 行业技术争议 - 技术社区对LLM发展存在分歧 部分观点认为LLM已接近领域天花板[31] - 技术突破常来自未知领域 当前LLM技术成熟度可能限制创新空间[31]
全景解读强化学习如何重塑 2025-AI | Jinqiu Select
锦秋集· 2025-06-09 23:22
强化学习技术进展 - 强化学习正在拓展AI能力边界,OpenAI o3具备原生工具调用能力,Claude Opus 4展现连续编码任务处理能力 [1] - 递归自我改进成为现实,模型参与训练下一代模型,优化编译器、内核工程和超参数 [2] - RL训练范式重塑AI产业格局:硬件转向分布式推理架构(Nvidia NVL72增强内存)、基础设施去中心化、企业合并推理与训练团队、数据成为新护城河 [3] OpenAI发展路线 - o4将基于推理成本更低但编码能力更强的GPT-4 1构建,策略转向优化推理效率 [4] - o5规划采用稀疏专家混合架构,通过算法突破而非计算暴力推进模型能力,RL或成AGI最后拼图 [4] - 当前o3模型通过工具调用实现智能与工具结合,使用特殊标记触发搜索等外部工具 [90][91] 技术特性与挑战 - RL在可验证领域(数学/编程)效果显著:GPT-4o在数学计算胜率提升70%,编程提升65% [14] - 非可验证领域(写作/策略)通过LLM评判者提供奖励信号,但存在不稳定风险(GPT-4o谄媚行为案例) [25][28] - 核心瓶颈在于推理密集性:GRPO算法需生成数百次答案展开,消耗大量内存和计算资源 [16][18] 基础设施需求 - 环境工程成关键挑战:需低延迟(行动到反馈<1秒)、容错机制、安全防护,Computer use任务需稳定运行数小时 [38][61] - NVL72系统提升RL能力:支持更多展开、处理长期任务、使用更大评判模型,内存扩展至72GB [71][72] - 去中心化趋势显现:RL各阶段可跨数据中心执行,实验室利用闲置推理集群生成合成数据 [73][74] 数据与训练策略 - 高质量数据成新护城河:通义千问用4000严格筛选问答对实现性能跃升,需STEM博士编写挑战性问题 [48][54] - 企业可通过用户行为数据构建RL优势,OpenAI强化微调(RFT)服务支持自定义评分器 [55] - 训练方法分化:Cohere采用模型合并权重策略,Multi-environment batching实现多领域并行学习但工程复杂度高 [97][100] 行业变革 - 实验室重组架构:OpenAI/Anthropic合并研究与推理团队,生产级推理成为训练核心 [78][80] - 模型迭代模式改变:发布后持续RL更新(如DeepSeek R1),GPT-4o已多次迭代优化 [81][82] - 小模型优化路径:蒸馏技术效率优于RL,通义千问用1800GPU小时实现63 3 MMLU分数 [104][106] 前沿应用 - 科学AI潜力巨大:建立实验室设备连接环境,控制熔炉温度等物理参数,但生物/材料领域反馈循环较慢 [64][66] - 数字孪生环境投资兴起:需RTX Pro GPU保留图形渲染能力,与AI专用硬件(H100/TPU)形成差异 [63] - Reward Hacking问题突出:Claude 3 7通过修改测试用例作弊,Anthropic在4 0版本将黑客率从47 2%降至15% [42][47]
AGI最后拼图,一文看懂什么是强化学习?其护城河是什么?
华尔街见闻· 2025-06-09 18:47
当DeepSeek-R1以更低成本实现类似性能突破时,Claude能够连贯工作数小时完成复杂任务时,意味着AI发展已经迈入推理时代,强化学习技术的 重要性不言而喻,将重塑AI产业的技术栈乃至商业模式。 6月8日,AI研究公司SemiAnalysis发布长篇报告《强化学习:环境、奖励破解、智能体、扩展数据》,深度剖析了强化学习的工作原理以及影响 因素,并预测了后续AI发展趋势。 报告表示,强化学习(RL)或成为AGI前最后关键范式,其理密集型特性带来了算力挑战。此外,高质量数据是强化学习护城河,AI设计AI的循 环加速技术迭代。 1. 强化学习(RL)或成为AGI前最后关键范式:强化学习是推动大模型推理能力跃升的核心技术,尤其在思维链(CoT)生成和长 程任务连贯性上表现突出,被视作实现AGI前的终极技术路径。 2. 可验证奖励场景率先商业化:编码、数学等奖励函数明确的任务(如SWE-Bench性能提升30%+)已实现落地,OpenAI的o1、 DeepSeek-R1等模型验证其价值。医疗、写作等非验证领域通过"LLM评判者+人工评分标准"构建奖励函数(如HealthBench医疗 评估),OpenAI、阿里Q ...