元学习

搜索文档
新西兰奥克兰大学段雨晴:以脏数据为突破口,Z世代重塑AI创新范式
环球网资讯· 2025-07-06 14:52
大数据分析驱动AI优化与创新 - 驱动AI优化的关键不仅在于数据数量 更在于用聪明方式解读复杂性 这是Z世代的独特优势 [2] - 适度保留"脏数据"在某些场景更具价值 例如金融欺诈检测中 异常数据可能包含关键线索 [3] - Z世代在信息爆炸环境中培养了从噪声中提取价值信号的能力 这种能力同样适用于AI系统 [3] 跨域数据融合的价值 - Z世代的多维思维模式为理解大数据价值提供独特视角 金融分析正融合图像 社交媒体等多源数据 [4] - ESG研究中 需要将企业环境影响转化为量化风险指标 这需要洞察力与创新思维而不仅是技术手段 [4] - 通过融合谷歌搜索趋势 地理位置等实时信息 可在传统经济指标滞后时及时掌握社会运行状态 [4] 从大数据样本向小数据样本转变 - AI领域正经历从依赖海量数据到借助少量样本快速适应的技术跃迁 主要得益于元学习发展 [4] - 医疗领域元学习可实现从常见病学习通用模式 再通过十几例罕见病样本实现有效识别 [5] - 金融领域可借鉴成熟市场经验 使AI快速适应数据稀缺的新兴市场 [5] - 小数据样本带来隐私保护和响应速度提升两大优势 减少对数据量的依赖 [6] Z世代的独特能力 - Z世代具备创造力 适应力和对世界的敏锐感知 这些能力对处理复杂信息 实现跨领域融合至关重要 [6] - 从噪声中提取价值信号的能力 以及多维思维模式 是Z世代推动AI创新的核心优势 [3][4]
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
机器之心· 2025-06-14 12:12
机器之心报道 编辑:Panda 近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海 交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」,参阅文章《 LSTM 之父 22 年 前构想将成真?一周内 AI「自我进化」论文集中发布,新趋势涌现? 》 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子: 而前些天,OpenAI CEO、著名 大 v 山姆・奥特曼在其博客《 温和的奇点(The Gentle Singularity) 》中更是畅想了一个 AI/智能机器人实现自我改进后的未 来。他写道:「我们必须以传统的方式制造出第一批百万数量级的人形机器人,但之后它们能够操作整个供应链来制造更多机器人,而这些机器人又可以建造更 多的芯片制造设施、数据中心等等。」 不久之后,就有 用户 @VraserX 爆料称有 OpenAI 内部人士表示,该公司 ...
揭秘LLM“思考”之谜:推理即“梯度下降”,元学习框架解构训练过程,还给优化提供新思路
量子位· 2025-06-10 12:05
RaML框架核心观点 - 大语言模型(LLM)的推理过程可类比为梯度下降优化过程,推理轨迹中的每个令牌对应参数的一次隐式更新[2] - 研究团队通过理论推导证明Transformer模型中增加的推理轨迹令牌会内化为对模型参数的更新[2] - 实证验证显示随着推理轨迹解码,模型对正确答案的置信度逐步上升,证实推理轨迹作为参数更新的合理性[4] 元学习视角下的LLM推理 - 将LLM推理训练置于元学习框架下解释,每个具体问题视为独立任务[7] - 推理轨迹承担"内循环优化"角色,动态调整内部参数适应特定任务[8] - 外循环优化基于内循环结果调整"学习策略",形成双循环机制实现泛化能力[8] - 该框架统一解释LLM在不同训练策略、推理策略和任务泛化上的表现[9] 训练方法对比 - 有监督微调(SFT)模型相比纯强化学习(RL)模型在数学基准上表现更优[10] - SFT提供"最优梯度指导",对较小模型收益显著(Pass@8提升31%,mG-Pass@8提升175%)[13] - RL理论上限更高但需要更强基座模型,可采用SFT+RL混合训练策略[12] 推理轨迹特性 - 更长的推理轨迹对应更好的内循环优化效果,与传统优化算法迭代次数原理类似[14] - "反思"令牌能显著改变模型置信度,帮助跳出局部最优解[15][17] - 强制结束思考过程的令牌序列可能导致模型停留在次优解[18][20] 跨任务泛化能力 - 仅在数学推理训练即可提升科学推理和代码推理任务表现[21] - 模型学习到普适推理特征,通过元学习机制快速适应新任务[23] 实践优化策略 - 增加每个问题的训练轨迹数量(相当于扩大元学习支撑集)可提升推理表现[25] - 对长推理轨迹进行摘要提炼,在保持性能同时显著降低解码开销[30] - 未来可探索更高效的推理轨迹提取方法及任务配比优化[31] 研究价值 - 为理解大模型推理提供全新视角,揭示其与元学习、梯度下降的关联[32] - 理论框架具有实践指导意义,已开源代码和论文供进一步研究[32]
LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?
机器之心· 2025-06-02 13:22
机器之心报道 编辑:张倩、+0 让 AI 实现自我进化是人类一直以来的梦想。 早在 2003 年,AI 先驱、LSTM 之父 Jürgen Schmidhuber 就提出过一种名为「哥德尔机(Gödel Machine)」的构想——它使用一种递归的自我改进 协议,如果能够证明新代码的策略较佳,就会重写自己的代码。但这终究只是一个假想。 近年来,关于模型自我学习、进化的研究逐渐多了起来,很多研究者的目标在逐渐从单纯的「训练模型」向「让模型学会自我学习和自我进化」转变,谷歌 最近发布的 AlphaEvolve 就是其中的重要代表。 人工智能研究的一个长期目标是创造能够持续学习的 AI 系统。实现这一目标的一条诱人路径是让 AI 通过重写自身代码(包括负责学习的代码)来实现自我 改进。这一由 Jürgen Schmidhuber 数十年前提出的构想被称为「哥德尔机」,是一种假想中的自我改进型 AI。当它在数学上证明存在更优策略时,它会 通过递归地重写自身代码来优化问题解决方案,因此成为元学习(即「学会学习」)领域的核心概念。 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文哥德尔机(DGM)」 :DGM ...