谷歌AI论文趋势:推理为王
华福证券·2025-12-31 10:43

行业投资评级 - 传媒行业评级为“强于大市”(维持)[7] 报告核心观点 - 报告核心观点是看好AI推理端算力的爆发,认为通过专注AI推理过程的算法优化并给予大模型充足的推理算力,能使模型表现变得更快、更好、更有效[6] - 报告认为谷歌的动向揭示了行业新趋势:从训练推理模型转向关注推理过程本身,推理过程正成为获取智能、处理复杂信息的关键环节,算力价值从后台训练转移到了前台实时推理[5] 行业动态跟踪:谷歌前沿产品进展 - 2025年12月4日,谷歌向Google AI Ultra订阅用户推送Gemini 3 Deep Think模式,运用并行思维技术推动思维能力前沿[3] - 其上一代模型Gemini2.5 Deep Think鼓励模型利用扩展推理路径,使深度思维随时间推移成为更优秀、更直观的问题解决者[3] - 通过延长推理或思考时间,让AI有更多时间去探索不同假设,并对复杂问题提出创造性解决方案[3] 行业技术趋势:推理算法进步 - 谷歌论文《Titans: Learning to Memorize at Test Time》提出新的神经长时记忆模块,能学习记忆历史上下文,并运用遥远历史信息协助注意力机制聚焦当前上下文[4] - 该神经记忆模块兼具快速并行化训练与高效推理优势,注意力机制被视为短期记忆,而神经记忆则发挥长期、更持久记忆的作用[4] - 论文提出同时具备注意力机制和元上下文记忆的结构“Titans”,能在测试时学习记忆[4] - 谷歌论文《Nested Learning: The Illusion of Deep Learning Architecture》提出全新机器学习范式“嵌套学习NL”,模仿人脑认知机制路径[5] - “嵌套学习”将短期内记忆快速更新、长期记忆缓慢沉淀的过程逻辑数字化,每个层级拥有独立上下文流和更新频率[5] - 从嵌套学习视角提出连续记忆系统CMS,每次更新仅包含少量参数,减少算力需求,使大语言模型能在不断学习新技能的同时不遗忘旧技能,计算效率将大幅提升[5] - 谷歌团队试图打破现有大模型训练即固化的静态模式,让学习不再仅限于训练过程,而是发生在推理现场[5] - 现有Transformer模型通过Attention机制处理长文本计算成本高,且本质上是短期记忆,一旦超出上下文窗口信息就被丢弃[5]