流匹配

搜索文档
ICCV 2025|降低扩散模型中的时空冗余,上交大EEdit实现免训练图像编辑加速
机器之心· 2025-07-05 10:46
核心观点 - 上海交通大学EPIC Lab团队提出了一种无需训练的高效缓存加速编辑框架EEdit,用于加速基于流匹配扩散模型的图像编辑任务 [6][7] - EEdit通过反演过程特征复用和区域分数奖励控制区域标记计算频率,解决了图像编辑中的时空冗余性问题 [9] - 该框架支持多种输入类型引导的编辑任务,包括参考图像引导、提示词引导和拖拽区域引导 [10] - 相比于未加速版本,EEdit实现了2.4倍推理速度提升,最快可达10倍加速 [8] 研究动机 - 基于扩散模型的图像编辑存在时间步数量多、反演过程开销大、非编辑区域计算浪费等问题 [6] - 在将猫编辑为虎的案例中发现非编辑区域存在高空间冗余,反演过程存在高时间冗余 [14] - 当前学界对图像编辑任务中时空冗余性带来的计算开销问题研究较少,是一片蓝海 [6] 方法简介 - EEdit采用输出特征复用方式压缩反演过程时间步,使用区域分数奖励控制区域标记更新频率 [7] - 设计了空间局域缓存算法(SLoC),利用编辑区域掩码作为空间知识先验来针对性更新feature tokens [20] - SLoC算法包括分数图初始化、区域分数奖励、feature tokens选择和递增补偿等步骤 [21][22][23] - 采用缓存索引预处理(TIP)技巧,将缓存更新逻辑转为离线预处理算法 [24] 实验结果 - 在FLUX-dev开源权重上进行实验,覆盖PIE-bench等四个数据集 [26] - 定量评估显示SLoC+ISS方案在PSNR(31.97)、LPIPS(1.96)、SSIM(0.94)等指标上最优 [27] - 计算开销(264.5T FLOPs)和推理时间(4.60s)显著优于其他方法 [27] - 定性实验显示EEdit在编辑区域精确度和背景一致性上表现优越 [28] - 与其他缓存算法相比,SLoC在前景保持度上效果提高50%以上 [29]
何恺明CVPR 2025报告深度解读:生成模型如何迈向端到端?
自动驾驶之心· 2025-06-28 21:34
生成模型技术演进 - 何恺明在CVPR 2025提出《Towards End-to-End Generative Modeling》,揭示生成模型可能面临类似识别模型"前AlexNet时代"的困境,并提出MeanFlow方法将ImageNet生成从250步迭代压缩到1步完成,FID指标逼近传统多步模型天花板 [1][7][24] - 识别模型经历从逐层训练(如DBN、DAE)到端到端训练(AlexNet)的范式革命,当前生成模型(扩散模型、自回归模型)的多步推理模式与识别模型的逐层训练存在相似性 [2][3][7] - MeanFlow核心创新在于用平均速度替代复杂积分运算,采样公式简化为一步生成,ImageNet 256x256任务中MeanFlow-XL/2在1-NFE设置下FID达3.43,显著优于iCT-XL/2的34.24和Shortcut-XL/2的10.60 [27][31][32] 识别与生成的对偶关系 - 识别是数据到语义的抽象流(具体→抽象),生成是噪声到实例的具象流(抽象→具体),两者构成数据流动的双向过程 [13][15][16] - 本质区别在于识别具有确定映射(如猫图片对应固定标签),而生成需从简单噪声映射到无限可能的数据分布,存在高度非线性 [18][20] 流匹配技术突破 - 流匹配通过构建数据分布的流场实现生成,核心公式建立数据与噪声的连续映射关系,涉及条件速度与边缘速度两个关键概念 [22] - MeanFlow推导出MeanFlow恒等式,直接参数化平均速度并定义损失函数,避免复杂积分运算,训练效率显著提升 [27][29] 前沿研究方向 - 当前研究包括Consistency Models系列(iCT/ECT/sCM)、Two-time-variable Models(CTM/Shortcut Models)、Revisiting Normalizing Flows(TarFlow)等方向 [34] - 开放性问题聚焦如何构建真正适用于端到端生成的公式,MeanFlow虽突破但仍受限于迭代框架,需探索更本质的生成建模方法 [34][35] 生成模型应用进展 - CVPR 2025涌现多模态生成突破:DiffSensei桥接多模态LLM与扩散模型实现定制漫画生成,EX-4D通过深度水密网格合成极端视角4D视频 [36][43] - 视频生成领域出现测试时训练实现的1分钟视频生成(One-Minute Video Generation)、VideoMAR基于连续token的自回归视频生成等技术 [39][48]
ICML 2025 Spotlight | 新理论框架解锁流匹配模型的引导生成
机器之心· 2025-06-28 10:54
研究背景 - 能量引导技术通过在生成模型的向量场中加入引导向量场,使生成的样本分布从训练集分布改变为被某个能量函数加权后的分布,从而实现可控生成 [7] - 现有能量引导算法主要针对扩散模型,而流匹配模型与扩散模型有本质区别,导致现有算法无法直接通用 [7] - 流匹配模型比扩散模型更一般化,允许从几乎任意源分布和耦合分布中生成样本,这使得能量引导的实现更加复杂 [1][9] 方法创新 - 首次提出流匹配能量引导理论框架,填补了该领域空白 [3] - 提出三大类无需训练的实用流匹配能量引导算法,包括蒙特卡洛估计、梯度近似和高斯近似方法 [3][13][14][17] - 该框架可将经典扩散模型能量引导算法包含为特例,具有更广泛的适用性 [3] 技术细节 - 推导出一般流匹配能量引导向量场公式,通过重要性采样技术实现精确计算 [11][13] - 梯度近似方法通过泰勒展开简化计算,在特定条件下可简化为经典的DPS算法 [15] - 高斯近似方法针对特定任务形式(如含高斯噪声的线性逆问题)可得到解析表达式 [18] 实验结果 - 在合成数据实验中,蒙特卡洛采样引导算法取得最接近真实分布的结果,验证了框架正确性 [21] - 离线强化学习任务中蒙特卡洛采样引导表现最佳,因其能产生稳定的引导采样样本 [23] - 图片逆问题中,针对问题特性设计的高斯近似引导和GDM方法表现最优 [25] 应用价值 - 为流匹配引导采样提供了理论基础,推动了生成模型的进一步应用 [27] - 通过理论分析和实验比较,为不同任务场景下的算法选择提供了实用指导 [3][27] - 代码已开源,有助于促进相关技术在实际应用中的推广 [5]
何恺明CVPR最新讲座PPT上线:走向端到端生成建模
机器之心· 2025-06-19 17:30
CVPR 2024视觉生成建模前沿进展 核心观点 - 生成模型可能重现识别模型从逐层训练到端到端训练的历史演进路径,当前主流方法(如扩散模型)仍处于"AlexNet前时代"的多步迭代阶段[36][81] - 何恺明团队提出的MeanFlow框架在单步生成任务上实现突破,1-NFE生成FID达3.43,较之前最佳方法提升50%-70%[101][107][108] - 视觉生成建模正朝着端到端、前馈式方向演进,流匹配(Flow Matching)技术成为关键突破口[59][81] 技术演进路径 历史对照 - 识别模型在AlexNet后全面转向端到端训练,取代了DBN/DAE等逐层训练方法[10][15] - 当前生成模型(扩散/自回归)仍依赖多步推理,类似识别模型的"前AlexNet时代"[36] 方法论创新 - 提出平均速度场(Average Velocity)概念替代瞬时速度场,建立MeanFlow Identity理论框架[83][90] - 通过Jacobian-vector product计算时间导数,避免直接积分带来的计算复杂度[92] - 训练损失函数设计包含停止梯度(stopgrad)机制,防止高阶梯度干扰[93][96] 性能突破 ImageNet 256x256实验结果 - MeanFlow-XL/2模型: - 1-NFE生成FID 3.43,较Shortcut-XL/2的10.60提升67%[107] - 2-NFE生成FID 2.20,较iMM-XL/2的7.77提升71%[108] - 参数量与性能呈正相关: - 131M参数版本FID 6.17 → 676M参数版本FID 3.43[103][107] 横向对比 - 显著超越GANs(BigGAN FID 6.43)和自回归模型(MaskGIT FID 6.18)[109] - 接近多步扩散模型性能(DiT-XL/2 250步FID 2.10),但推理步数减少两个数量级[109] 行业研究方向 前沿技术路线 - 一致性模型(Consistency Models)系列:iCT/ECT/sCM等改进版本[110] - 双时间变量模型:CTM/Flow Map Matching/Shortcut Models[111] - 归一化流重构:TarFlow等新型架构[113] 开放性问题 - 如何构建不依赖迭代框架的真正端到端生成公式[113] - 神经网络在捕捉隐式轨迹与简化生成过程间的平衡优化[113] - 生成模型的"AlexNet时刻"尚未到来,存在范式创新空间[81][113]
何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%
机器之心· 2025-05-21 12:00
核心观点 - 提出了一种名为MeanFlow的单步生成建模框架,通过引入平均速度概念改进现有流匹配方法,在ImageNet 256×256数据集上取得FID 3.43的显著成果[3][5] - 该方法无需预训练、蒸馏或课程学习,完全从头训练,大幅缩小单步与多步扩散/流模型性能差距[7][16] - 在1-NFE生成任务中相对此前最佳方法提升50%-70%,2-NFE生成时FID达2.20,媲美多步模型[16][18] 方法创新 - 用平均速度场(u)替代传统瞬时速度场(v),建立两者间的MeanFlow恒等式:u(z_t,r,t)=v(z_t,t)-(t-r)·du/dt[9][10] - 设计损失函数强制网络满足u与v的数学关系,支持无分类器引导(CFG)且采样无额外成本[4][5] - 模型参数量级从131M到676M可扩展,最大版本MeanFlow-XL/2实现最优效果[17] 实验结果 - ImageNet 256×256任务:1-NFE生成FID 3.43 vs IMM 7.77,2-NFE生成FID 2.20 vs DiT 2.27[16][18] - CIFAR-10无条件生成FID 2.92,与EDM框架的iCT(2.83)、IMM(3.20)等竞争[19] - 消融实验显示lognorm(-0.4,1.0)采样策略和CFG权重2.0时效果最佳[21] 技术突破 - 首次实现单步模型FID低于4.0,1-NFE生成质量超越多数多步模型[5][16] - 理论证明平均速度场可自然整合控制生成的技术,扩展性强[5][10] - 训练效率显著提升,仅需单步推理即可达到多步模型90%以上性能[18]