Workflow
Image Generation
icon
搜索文档
让扩散模型「可解释」不再降质,开启图片编辑新思路
机器之心· 2025-12-16 10:31
文章核心观点 - 香港中文大学MMLab与上海人工智能实验室的研究团队提出了一种名为TIDE(Temporal-Aware Sparse Autoencoders)的新框架,这是首个真正意义上面向扩散Transformer(DiT)的时序稀疏自编码器框架,旨在解决扩散模型内部机制不透明的问题[3][6] - TIDE的核心创新在于将“时序”作为扩散模型可解释性的关键,通过捕捉不同时间步中保持一致的语义因子,首次清晰呈现了扩散模型内部的渐进式生成过程,且几乎不损害模型的原始生成质量[6][7][10] - 该框架在多个主流扩散模型(如Stable Diffusion XL, PixArt-α, Flux)上得到验证,不仅实现了高质量、可解释的语义因子分解,还催生了全新的“因子级”图像编辑方式,并提升了模型的结构理解与安全性,标志着扩散模型可解释性研究的重要突破[8][12][14][17] 技术原理与创新 - **以时序为核心**:TIDE突破了以往忽视扩散过程时间线的方法,它并非“硬拆”静态特征,而是让模型在时间维度上对齐语义,形成可读、可控的“时间语义剖面”[6] - **无损可解释性**:TIDE的稀疏自编码器在特征空间进行无损重构,扩散轨迹保持稳定,对生成质量影响极小,FID、sFID变化小于0.1%,实现了“可解释而不降质”[7][10] - **因子分解**:TIDE将扩散特征分解为具有明确可控语义的因子,例如负责轮廓、物体姿态、材质纹理的因子,甚至可以捕捉跨时间的概念演化[8] 性能表现与效果 - **生成质量保持**:在多种设置下,TIDE对FID指标的影响很小。例如,在默认配置(5% sparsity, 16d)下,FID仅从基线7.30增加到7.45(增加0.15)[15] - **语义理解提升**:TIDE显著提升了AlignScore中的语义绑定(颜色、形状、纹理)和关系理解(空间与非空间关系)指标,在多项指标上取得最优表现(表中绿色标记)[12][15] - **泛化能力强**:TIDE在SDXL和FLUX-dev等不同主流扩散架构上均表现出稳定的优势。例如,在SDXL上,TIDE的FID增加(+0.14)小于传统SAE(+0.20)[15] - **安全性增强**:在安全性评测中,TIDE将攻击成功率(ASR)降至0.64%,显著低于基线SDv1.4的17.80%,显示出更稳健的特征理解能力[14][15] 应用与影响 - **因子级图像编辑**:基于TIDE分解出的语义因子,研究团队构建了全新的图像编辑方式,无需依赖繁琐提示语或反复调参,即可直接操控扩散过程,实现如调整物体姿态但保持背景一致等操作[8][13] - **推动研究范式**:TIDE不仅是一个技术方法,更是一种新的研究范式,它证明了扩散模型并非不可解释,只是缺少合适的视角(时序),为未来的可解释性研究开辟了道路[17][19] - **未来发展方向**:TIDE为更可控、稳健的扩散编辑系统、统一理解-生成模型的因子级桥接、扩散模型的因果与语义理论研究以及新一代透明可信的视觉生成系统奠定了基础[21]
Disney to Invest $1 Billion in OpenAI, License Characters on Sora
Youtube· 2025-12-12 00:00
The Disney story for now, because the lawsuit obviously is an allegation and opening. I said they're going to look into those. We don't have many details.But the Disney story for investors has to be the more important one, right. I mean, $1,000,000,000 investment from this iconic from the house of mouse in open air. Is that a vote of confidence that two stories that are very hard to put in the same sentence.So let's focus in more on what's happening with Disney right now, because they say that the first maj ...