不用额外缓存,英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍
英伟达英伟达(US:NVDA) 36氪·2026-01-14 16:22

英伟达推出TTT-E2E方法 - 英伟达联合Astera研究所、斯坦福大学、UC伯克利、加州大学圣地亚哥分校等机构推出了TTT-E2E方法,旨在提高大模型记忆能力 [1] - 该方法在128K超长文本上处理速度比全注意力模型快2.7倍,处理2M上下文时提速达35倍,且性能不打折 [1] 技术原理与核心思路 - TTT-E2E采用动态学习路径,核心在于上下文压缩,通过实时学习将关键内容压缩到自身权重中,让模型在测试阶段保持学习状态 [3] - 该方法基于带滑动窗口注意力的标准Transformer,未依赖复杂特殊架构,易于部署 [6] - 核心思路是将长文本建模从架构设计问题转化为「持续学习」任务,在测试阶段通过梯度下降更新自身参数,动态压缩文本信息到权重中 [6] - 在训练阶段,通过元学习为模型做初始化准备,让模型适应「测试时学习」模式,实现了训练与测试的端到端对齐优化 [6] 关键优化设计 - 采用「迷你批处理+滑动窗口」组合策略,将测试时训练数据分多个迷你批,配合8K大小滑动窗口注意力,解决单token梯度更新易爆炸问题并提升计算并行度 [8] - 采用精准更新策略,只更新模型的MLP层(冻结嵌入层、归一化层和注意力层),并且只更新最后1/4的网络块,以减少计算成本并避免参数更新混乱 [8] - 采用双MLP设计,在需更新的网络块中加入一个静态MLP层存储预训练知识,另一个动态MLP层负责吸收新上下文,防止模型学新忘旧 [9] 性能表现与优势 - 在3B参数模型的测试中,TTT-E2E在128K上下文长度下的测试损失与全注意力Transformer持平甚至更优,而Mamba 2、Gated DeltaNet等同类模型在长文本场景下性能出现明显下滑 [9] - 其推理延迟不随上下文长度增加而变化,在H100显卡上处理128K文本时,速度比全注意力模型快2.7倍 [9] - 在解码长序列任务中,经Qwen-8B模型评估,TTT-E2E生成的文本质量稳定,损失值持续低于传统模型 [11] - 该方法的推理延迟与上下文长度无关,始终保持恒定,意味着无论处理8K还是128K文本,用户都能获得一致的快速响应体验 [13] 技术局限性与开源情况 - 在需要精准回忆细节的任务(如大海捞针)中,其表现远不如全注意力模型,因其核心是压缩记忆,会过滤掉看似无关的细节 [13] - 训练阶段的元学习需要计算梯度的梯度,目前实现比标准预训练要慢 [13] - TTT-E2E的代码和相关论文已完全开源,项目总负责人是斯坦福的博士后研究员Yu Sun [13][15]

Nvidia-不用额外缓存,英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍 - Reportify