Denoising Diffusion Implicit Models
SONG J, MENG C, ERMON S. Denoising Diffusion Implicit Models[J]. arXiv preprint arXiv:2010.02502, 2020.
去噪扩散隐式模型
Abstract
去噪扩散概率模型(DDPMs)无需对抗训练即可实现高质量图像生成,但其采样过程需要模拟一个马尔可夫链的多个步骤,耗时较长。为了加速采样,我们提出了去噪扩散隐式模型(DDIMs),这是一类更高效的迭代隐式概率模型,其训练过程与 DDPMs 相同。在 DDPMs 中,生成过程被定义为特定马尔可夫扩散过程的逆过程。我们通过一类非马尔可夫扩散过程对 DDPMs 进行了推广,这些过程能够导出相同的训练目标。这些非马尔可夫过程可以对应确定性的生成过程,从而形成能够更快生成高质量样本的隐式模型。实验表明,与 DDPMs 相比,DDIMs 能够以实际时间快 10 至 50 倍的速度生成高质量样本,允许我们在计算量和样本质量之间进行权衡,直接在隐空间中进行语义有意义的图像插值,并以极低误差重建观测数据。
目标
我们想学习一个模型分布
DDPM
DDPM 引入了一系列潜在变量
参数
其中
前向过程表示:
前向过程的一个特殊性质是:
因此,我们可以将
其中
当我们将
前向过程的长度
非马尔可夫前向过程的变分推断
由于生成模型近似于推断过程的逆过程,我们需要重新思考推断过程,以减少生成模型所需的迭代次数。我们的关键观察是:DDPM的目标函数
非马尔可夫前向过程
考虑一个由实向量
与 DDPM 的区别
- DDPM(马尔可夫):
,每一步只依赖前一步。 - DDIM(非马尔可夫):
同时依赖 和 ,允许跳过中间状态。
其中
设计原理
- 我们希望给定
时, 的边缘分布仍为 (和 DDPM 相同) - 通过特定的均值函数设计,可以确保这一点
- 参数
控制条件分布的方差: - 当
时,退化为 DDPM - 当
时,方差为0,成为确定性转移(即 DDIM)
- 当
选择该均值函数是为了确保对于所有
这里的前向过程不再是马尔可夫的,因为每个
公式
实际并不需要这个前向过程
生成过程与统一的变分推断目标
接下来,我们定义一个可训练的生成过程
对于某个
然后,我们可以用固定的先验
公式
- 当
时:用预测的 代入 ,计算 的分布 - 当
时:直接输出最终图像,加一点噪声保证分布性质
其中
我们通过以下变分推断目标(这是关于
这里我们根据
从
定理1.对于所有
变分目标
定理1
用 DDPM 目标训练出的模型
从广义生成过程中采样
去噪扩散隐式模型
根据
其中
DDPM
我们注意到另一个特殊情况,即当对所有
DDIM
TIP
尽管这种情况未被定理1所涵盖,但我们总可以通过使
加速生成过程
略
与神经 ODE 的相关性
此外,我们可以根据