MeanCache
搜索文档
ICLR 2026 | 中国联通提出扩散模型缓存框架MeanCache,刷新多模态生成模型推理加速新基准
机器之心· 2026-04-01 12:20
作者和团队介绍:本文第一作者是高焕霖,通讯作者为赵放和廉士国,所有作者均来自联通数据智能有限公司(中国联通数据科学与人工智能研究院)- 元 景大模型研发团队和南京大学,专注于联通元景大模型研发。 针对这一痛点,中国联通数据科学与人工智能研究院与南京大学研究团队,在此前工作 LeMiCa(NeurIPS 2025 Spotlight)的基础上继续深耕,推出了进 阶加速框架 MeanCache 。 该工作不仅承袭了团队在扩散模型加速领域的深厚积淀,更在技术上实现了跨越:受到 MeanFlow 启发,MeanCache 首次将 "平均速度" 视角引入缓存推 理,通过 JVP 修正精准校正了生成轨迹,实现了 4x 以上的推理提速。该成果已入选人工智能顶会 ICLR 2026 ,目前,论文、代码均已开源。 FLUX 、Qwen-Image 等多模态生成模型的推理速度一直是工业级多模态模型落地的痛点。传统的特征缓存(Feature Caching)方案在追求高倍率加速 时,常因瞬时速度的剧烈波动导致轨迹漂移。 技术创新:平均速度驱动的缓存新范式 MeanCache 的核心贡献在于将缓存加速从 "瞬时速度" 转向了 "平均 ...