Workflow
Nested Learning
icon
搜索文档
英伟达-下一代 AI 推理模型-2026 年推理与内存需求的福音
2025-12-12 10:19
涉及的公司与行业 * 公司:英伟达 (NVIDIA Corp, NVDA.O) [1][5] * 行业:人工智能 (AI) 基础设施、GPU/XPU、内存、大型语言模型 (LLM) [1] 核心观点与论据 * **下一代AI推理模型将驱动推理与内存需求**:AWS和谷歌近期的发布,标志着AI模型向需要处理海量上下文(massive context)的推理任务转变,这将利好GPU/XPU和内存需求 [1] * **AWS的“情景记忆”功能**:AWS在re:Invent大会上为其AgentCore平台发布了情景记忆功能,旨在让AI智能体能够存储和回忆过去的交互作为离散事件,从而像人类一样从经验中学习,这突显了内存是智能体智能的关键要素 [1][2] * **谷歌的“嵌套学习”与“连续记忆系统”**:谷歌研究人员开发了名为“嵌套学习”的新框架,并基于此创建了名为“Hope”的新模型变体,该模型包含一个独特的连续记忆系统 (CMS),使其能够自我改进,在推理、语言建模和记忆管理实验中表现优于其他前沿模型 [3][7][8] * **英伟达Rubin CPX GPU的竞争优势**:英伟达在AI基础设施峰会上发布的Rubin CPX GPU专为超大规模上下文处理设计,旨在实现最低的单令牌收入成本,其使用成本更低的GDDR7内存相比更昂贵的HBM,估计可将总拥有成本 (TCO) 降低3倍,这将使Rubin CPX在明年对TPU/Trainium等XPU构成有力竞争 [1][10] * **Rubin CPX的性能与投资回报**:Rubin CPX相比英伟达GB300 NVL72系统,注意力计算能力提升高达3倍,在全新的Vera Rubin NVL144 CPX平台中,公司能够以前所未有的规模实现投资货币化,投资回报率 (ROI) 约为50倍(即每投资1亿美元可产生5亿美元的令牌收入) [10] * **对英伟达的买入评级与目标价**:报告给予英伟达“买入”评级,短期观点为看涨,目标股价为270美元,基于2027财年预期盈利能力的约30倍市盈率贴现,该市盈率倍数与3-5年平均水平一致,预期股价回报率为48.0%,总回报率为48.0% [5][12] * **英伟达面临的下行风险**:1) 游戏业务竞争可能导致公司市场份额流失,进而拖累股价;2) 新平台采用速度慢于预期可能导致数据中心和游戏业务销售下滑;3) 汽车和数据中心市场的需求波动可能增加股价/估值倍数的波动性;4) 加密货币挖矿对游戏销售的影响 [13] 其他重要信息 * **谷歌的研发背景**:谷歌的“嵌套学习”方法借鉴了人类学习的关键组成部分,如神经可塑性和大脑振荡,旨在解决LLM在持续学习(即学习新知识而不牺牲原有知识和技能)方面的困难,这与将模型架构和训练规则作为两个独立过程处理的现有LLM形成对比 [4][7] * **报告的法律与合规声明**:报告包含大量分析师认证、重要披露和法律声明,指出花旗环球金融有限公司或其关联公司在过去12个月内曾从英伟达获得投资银行服务及其他服务的报酬,并与英伟达存在客户关系,表明存在潜在利益冲突 [6][14][17][18][19] * **报告评级分布**:截至2025年10月1日,花旗研究全球基本面覆盖的公司中,评级为买入、持有、卖出的比例分别为58%、33%、9% [23]
Google又发布了一篇可能改变AI未来的论文,这次它教AI拥有了记忆。
数字生命卡兹克· 2025-11-25 09:20
文章核心观点 - 当前以Transformer架构为基础的大语言模型存在“顺行性遗忘症”的根本缺陷,即模型参数在预训练结束后被冻结,无法形成新的长期记忆,每次对话都相当于与一个仅有出厂设置的AI互动 [11][17][21][24] - 谷歌研究提出的《Nested Learning》论文及HOPE模块旨在从架构层面解决此问题,其核心思想是模仿人脑多频率、多层次的学习与记忆巩固机制,让AI具备持续学习和知识内化的能力 [25][33][40][70] - 嵌套学习框架将AI模型明确拆分为不同更新频率的层级,使AI能够像人脑一样,在互动中通过高频、中频、低频层的协同工作,将短期经验逐步固化为长期记忆,从而实现真正的持续成长和个性化 [49][51][53][72] - 该方法与当前基于RAG的外部记忆功能有本质区别,后者仅是行为模拟,而嵌套学习追求的是神经网络参数本身的、结构性的成长,让知识内化为模型自身能力的一部分 [58][59][64][66] - 初步实验数据显示,在同等参数量和训练数据下,HOPE模型在一系列常见评测任务中取得了领先或极具竞争力的平均成绩,证明了该路径的可行性 [73][74] 当前AI模型的根本缺陷 - 大模型普遍患有“顺行性遗忘症”,其庞大的预训练参数相当于长期记忆,但训练结束后便失去形成新长期记忆的能力,新知识仅存在于短暂的对话上下文窗口中 [11][17][21] - 这导致AI的知识被永久冻结在预训练完成的那一刻,无法从与用户的持续互动中真正了解用户或固化经验,每次新对话都像是在与一个全新的、仅有出厂设置的AI打交道 [21][22][23] - 该缺陷源于现有Transformer架构本质上是一个“单频系统”,所有参数在训练时更新节奏基本一致,训练结束后系统即被锁死,所有学习活动停止 [42][43][44] 人脑学习机制的启示 - 人脑的学习是嵌套式、分层次、分频率的,不同频率的脑电波对应不同层次的信息处理任务,例如高频处理即时信息,低频负责整理、归纳和长期存储 [28][30][32][33] - 记忆巩固分阶段进行,短期记忆先在海马体形成,睡眠时通过脑波回放(离线巩固)将重要信息筛选并写入大脑皮层,成为稳定的长期记忆 [14][52] - 以学习开车为例,从毫秒级的肌肉反应(高频),到秒级的战术决策(中频),再到更慢的战略规划(低频),直至以月为单位重塑驾驶模型的根本性学习(最低频),展示了多层次学习的协同 [34][35][36][37][38][39] 嵌套学习(Nested Learning)框架与HOPE模块 - 该框架旨在让AI模仿人脑的多频率学习机制,明确将模型拆分为不同更新频率的层级 [49] - 核心模块HOPE结合了可自我修改权重的序列模型和多时间尺度的连续记忆带,形成了带自我更新机制的记忆单元 [45][47][48] - 在该框架下,AI对话时:高频层快速处理即时对话内容(临时记忆);中频层以稍慢速度分析对话主题与用户情绪(概要记忆);低频层以更慢速度整合长期互动,形成关于用户的稳定长期档案 [50][51] - 此过程赋予了AI类似人脑的“离线巩固”能力,即“睡觉和反思”的能力,使其能够日积月累、不断沉淀,成为一个持续的学习者 [52][53][54] 与现有记忆技术(RAG)的本质区别 - ChatGPT等产品现有的记忆功能本质是检索增强生成技术,将用户信息存入外部数据库,在对话时作为背景信息检索插入,并未改变模型自身的神经网络参数 [24][58][59][60] - 这如同随身携带笔记本查阅,而非记在脑子里,AI的核心模型(万亿参数)并未发生任何改变,其“大脑”本身仍是失忆状态 [58][60][61][62] - 嵌套学习的目标是“重塑大脑”,即利用互动数据直接微调和更新神经网络内部的参数,将新知识内化为模型自身的能力,如同钢琴家通过练习将乐谱融入肌肉记忆与情感理解,而非依赖外部乐谱 [64][66][67][68][69] - 现有记忆是行为上的模拟,而嵌套学习追求的是结构上的成长,旨在让知识真正转化为智慧 [70] 潜在影响与实验验证 - 该方法有望实现真正的Personal AI,即一个能通过持续互动越来越懂用户、记住用户偏好与背景的个人助理,无需用户每次重复信息 [72] - 论文实验在同等条件下对比了Transformer++、RetNet、DeltaNet、Titans等模型,HOPE在多个评测任务上平均成绩名列前茅 [73] - 具体数据:在760M参数/30B tokens规模下,HOPE平均得分46.90;在1.3B参数/100B tokens规模下,HOPE平均得分57.23,表现优于或接近同期其他先进模型 [74] - 这证明了模仿人脑嵌套、多层次学习机制的技术路径具有成功的可能性 [74][82]