从DDPM到DDIM (一) 极大似然估计与证据下界

从DDPM到DDIM (一) 极大似然估计与证据下界

  现在网络上关于DDPM和DDIM的讲解有很多,但无论什么样的讲解,都不如自己推到一遍来的痛快。笔者希望就这篇文章,从头到尾对扩散模型做一次完整的推导。本文的很多部分都参考了 Calvin Luo 和 Stanley Chan 写的经典教程。也推荐大家取阅读学习。

  DDPM是一个双向马尔可夫模型,其分为扩散过程和采样过程。

  扩散过程是对于图片不断加噪的过程,每一步添加少量的高斯噪声,直到图像完全变为纯高斯噪声。为什么逐步添加小的高斯噪声,而不是一步到位,直接添加很强的噪声呢?这一点我们留到之后来探讨。

  采样过程则相反,是对纯高斯噪声图像不断去噪,逐步恢复原始图像的过程。

下图展示了DDPM原文中的马尔可夫模型。
img

其中xT代表纯高斯噪声,xt,0<t<T 代表中间的隐变量, x0 代表生成的图像。从 x0 逐步加噪到 xT 的过程是不需要神经网络参数的,简单地讲高斯噪声和图像或者隐变量进行线性组合即可,单步加噪过程用q(xt|xt1)来表示。但是去噪的过程,我们是不知道的,这里的单步去噪过程,我们用 pθ(xt1|xt) 来表示。之所以这里增加一个 θ 下标,是因为 pθ(xt1|xt) 是用神经网络来逼近的转移概率, θ 代表神经网络参数。

  扩散模型首先需要大量的图片进行训练,训练的目标就是估计图像的概率分布。训练完毕后,生成图像的过程就是在计算出的概率分布中采样。因此生成模型一般都有训练算法和采样算法,VAE、GAN、diffusion,还有如今大火的大预言模型(LLM)都不例外。本文讨论的DDPM和DDIM在训练方法上是一样的,只是DDIM在采样方法上与前者有所不同

  估计生成样本的概率分布的最经典的方法就是极大似然估计,我们从极大似然估计开始。

1、从极大似然估计开始

  首先简单回顾一下概率论中的一些基本概念,边缘概率密度、联合概率密度、概率乘法公式和马尔可夫链,最后回顾一个强大的数学工具:Jenson 不等式。对这些熟悉的同学可以不需要看1.1节。

1.1、概念回顾

边缘概率密度和联合概率密度: 大家可能还记得概率论中的边缘概率密度,忘了也不要紧,我们简单回顾一下。对于二维随机变量(X,Y),其联合概率密度函数是f(x,y),那么我不管Y,单看X的概率密度,就是X的边缘概率密度,其计算方式如下:

fX(t)=f(x,y)dy

概率乘法公式: 对于联合概率P(A1A2...An),若P(A1A2...An1)0,则:

P(A1A2...An)=P(A1A2...An1)P(An|A1A2...An1)=P(A1)P(A2|A1)P(A3|A1A2)...P(An|A1A2...An1)

概率乘法公式可以用条件概率的定义和数学归纳法证明。

马尔可夫链定义: 随机过程 {Xn,n=0,1,2,...}称为马尔可夫链,若随机过程在某一时刻的随机变量 Xn 只取有限或可列个值(比如非负整数集,若不另外说明,以集合 S 来表示),并且对于任意的 n0 ,及任意状态 i,j,i0,i1,...,in1S,有

P(Xn+1=j|X0=i0,X1=i1,...Xn=i)=P(Xn+1=j|Xn=i)

其中 Xn=i 表示过程在时刻 n 处于状态 i。称 S 为该过程的状态空间。上式刻画了马尔可夫链的特性,称为马尔可夫性。

Jenson 不等式。Jenson 不等式有多种形式,我们这里采用其积分形式:

f(x) 为凸函数,另一个函数 q(x) 满足:

q(x)dx=1

则有:

f[q(x)xdx]q(x)f(x)dx

更进一步地,若 x 为随机变量 X 的取值,q(x) 为随机变量 X 的概率密度函数,则 Jenson不等式为:

f[E(x)]E[f(x)]

关于 Jenson 不等式的证明,用凸函数的定义证明即可。网上有很多,这里不再赘述。

1.2、概率分布表示

  生成模型的主要目标是估计需要生成的数据的概率分布。这里就是p(x0),如何估计p(x0)呢。一个比较直接的想法就是把p(x0)当作整个马尔可夫模型的边缘概率:

p(x0)=p(x0:T)dx1:T

这里p(x0:T)表示x0,x1,...,xT 多个随机变量的联合概率分布。dx1:T 表示对x1,x2,...,xTT 个随机变量求多重积分。

  显然,这个积分很不好求。Sohl-Dickstein等人在2015年的扩散模型的开山之作中,采用的是这个方法:

(1)p(x0)=p(x0:T)q(x1:T|x0)q(x1:T|x0)dx1:T1=q(x1:T|x0)p(x0:T)q(x1:T|x0)dx1:T=Eq(x1:T|x0)[p(x0:T)q(x1:T|x0)]

  Sohl-Dickstein等人借鉴的是统计物理中的技巧:退火重要性采样(annealed importance sampling) 和 Jarzynski equality。这两个就涉及到笔者的知识盲区了,感兴趣的同学可以自行找相关资料学习。(果然数学物理基础不牢就搞不好科研~)。

  这里有的同学可能会有疑问,为什么用分子分母都为 q(x1:T|x0) 的因子乘进去?这里笔者尝试给出另一种解释,就是我们在求边缘分布的时候,可以尝试将联合概率分布拆开,然后想办法乘一个已知的并且与其类似的项,然后将这些项分别放在分子与分母的位置,让他们分别进行比较。因为这是KL散度的形式,而KL散度是比较好算的。q(x1:T|x0) 的好处就是也可以按照贝叶斯公式和马尔可夫性质拆解成多个条件概率的连乘积,这些条件概率与 p(x0:T) 拆解之后的条件概率几乎可以一一对应,而且每个条件概率表示的都是扩散过程的单步转移概率,这我们都是知道的。那么为什么不用 q(x0:T) 呢?其实 pq 本质上是一种符号,q(x0:T)p(x0:T) 其实表示的是一个东西。

  这里自然就引出了问题,这么一堆随机变量的联合概率密度,我们还是不知道啊,p(x0:T)q(x1:T|x0) 如何该表示?

  利用概率乘法公式,有:

(2)p(x0:T)=p(xT)p(xT1|xT)p(xT2|xT1,xT)...p(x0|x1:T)

我们这里是单独把 p(xT),单独提出来,这是因为 xT 服从高斯分布,这是我们知道的分布;如果反方向的来表示,这么表示的话:

(3)p(x0:T)=p(x0)p(x1|x0)p(x2|x1,x0)...p(xT|x0:T1)

(3)式这样表示明显不如(2)式,因为我们最初就是要求 p(x0) ,而计算(3)式则需要知道 p(x0),这样就陷入了死循环。因此学术界采用(2)式来对联合概率进行拆解。

因为扩散模型是马尔可夫链,某一时刻的随机变量只和前一个时刻有关,所以:

p(xt1|xt)=p(xt1|xt)

于是有:

p(x0:T)=p(xT)t=1Tp(xt1|xt)

文章一开始说到,在扩散模型的采样过程中,单步转移概率是不知道的,需要用神经网络来拟合,所以我们给采样过程的单步转移概率都加一个下标 θ,这样就得到了最终的联合概率:

(4)p(x0:T)=p(xT)t=1Tpθ(xt1|xt)

类似地,我们来计算 q(x1:T|x0) 的拆解表示:

q(x1:T|x0)=q(x1|x0)q(x2|x0:1)...q(xT|x0:T1)=t=1Tq(xt|xt1)

于是得到了以x0 为条件的扩散过程的联合概率分布:

(5)q(x1:T|x0)=t=1Tq(xt|xt1)

数学推导的一个很重要的事情就是分清楚哪些是已知量,哪些是未知量。q(xt|xt1) 是已知的,因为根据扩散模型的定义,q(xt|xt1) 是服从高斯分布的;另外 p(xT) 也是已知的,因为 xT 代表的是纯高斯噪声,因此 p(xT) 也是服从高斯分布的。

1.3、极大似然估计

  既然我们知道了p(x0:T)q(x1:T|x0) 的表达式,我们可以继续对 (1) 式进行化简了。首先我们要对(1)式进行缩放,(1)式我们难以计算,我们可以计算(1)式的下界,然后极大化它的下界就相当于极大化(1)式了。这确实是一种巧妙的方法,这个方法在VAE推导的时候就已经用过了,大家不懂VAE也没关系,我们在这里重新推导一遍。

  计算(1)式的下界一般有两种办法。分别是Jenson不等式法KL散度方法。下面我们分别给出两种方法的推导。

Jenson不等式法。在进行极大似然估计的时候,一般会对概率分布取对数,于是我们对(1)式取对数可得:

logp(x0)=logp(x0:T)q(x1:T|x0)q(x1:T|x0)dx1:T=logq(x1:T|x0)p(x0:T)q(x1:T|x0)dx1:T=log{Eq(x1:T|x0)[p(x0:T)q(x1:T|x0)]}Eq(x1:T|x0)[logp(x0:T)q(x1:T|x0)]Jenson不等式,log()为concave函数=L

L=Eq(x1:T|x0)[logp(x0:T)q(x1:T|x0)] 被称为随机变量 x0证据下界 (Evidence Lower BOund, ELBO)。

KL散度方法。当然,我们也可以不采用Jenson不等式,利用KL散度的非负性,同样也可以得出证据下界。将证据下界中的数学期望展开,写为积分形式为:

L=q(x1:T|x0)logp(x0:T)q(x1:T|x0)dx1:T

另外,我们定义一个KL散度:

KL(q(x1:T|x0)||p(x1:T|x0))=q(x1:T|x0)logq(x1:T|x0)p(x1:T|x0)dx1:T

下面我们将验证:

(6)logp(x0)=L+KL(q(x1:T|x0)||p(x1:T|x0))

具体地,有:

L+KL(q(x1:T|x0)||p(x1:T|x0))=q(x1:T|x0)logp(x0:T)p(x1:T|x0)dx1:T=q(x1:T|x0)logp(x1:T|x0)p(x0)p(x1:T|x0)dx1:T=q(x1:T|x0)logp(x0)dx1:T=logp(x0)q(x1:T|x0)dx1:T1=logp(x0)

因此,(6)式成立。由于KL(q(x1:T|x0)||p(x1:T|x0))0,所以:

logp(x0)L

  个人还是更喜欢Jenson不等式法,因为此方法的思路一气呵成;而KL散度法像是先知道最终的答案,然后取验证答案的正确性。而且KL的非负性也是可以用Jenson不等式证明的,所以二者在数学原理上本质是一样的。KL散度法有一个优势,就是能让我们知道 logp(x0) 与证据下界的差距有多大,二者仅仅相差一个KL散度:KL(q(x1:T|x0)||p(x1:T|x0))。关于这两个概率分布的物理意义,笔者认为可以这样理解:q(x1:T|x0) 是真实的,在给定图片 x0 作为条件下的前向联合概率,而 p(x1:T|x0) 是我们估计的条件前向联合概率。而KL散度描述的是两个概率分布之间的距离,如果我们估计的比较准确的话,二者的距离是比较小的。因此这也印证了我们采用证据下界来替代 logp(x0) 做极大似然估计的合理性。

  下面,我们的方向就是逐步简化证据下界,直到简化为我们编程可实现的形式。

2、简化证据下界

  对证据下界的化简,需要用到三个我们之前推导出来的表达式。为了方便阅读,我们把(4)式,(5)式,还有证据下界重写到这里。

(4)p(x0:T)=p(xT)t=1Tpθ(xt1|xt)

(5)q(x1:T|x0)=t=1Tq(xt|xt1)

(7)L=Eq(x1:T|x0)[logp(x0:T)q(x1:T|x0)]

下面我们将(4)式和(5)式代入到(7)式中,有:

L=Eq(x1:T|x0)[logp(x0:T)q(x1:T|x0)]=Eq(x1:T|x0)[logp(xT)t=1Tpθ(xt1|xt)t=1Tq(xt|xt1)]=Eq(x1:T|x0)[logp(xT)pθ(x0|x1)t=2Tpθ(xt1|xt)t=1Tq(xt|xt1)]=Eq(x1:T|x0)[logp(xT)pθ(x0|x1)t=1T1pθ(xt|xt+1)t=1Tq(xt|xt1)]

蓝色部分的操作,是将分子分母的表示的随机变量概率保持一致,对同一个随机变量的概率分布的描述才具备可比性。而且,我们希望分子分母的连乘号下标保持一致,这样才能进一步化简。下面我们继续:

(8)L=Eq(x1:T|x0)[logp(xT)pθ(x0|x1)t=1T1pθ(xt|xt+1)t=1Tq(xt|xt1)]=Eq(x1:T|x0)[logp(xT)pθ(x0|x1)t=1T1pθ(xt|xt+1)q(xT|xT1)t=1T1q(xt|xt1)]=Eq(x1:T|x0)[logp(xT)pθ(x0|x1)q(xT|xT1)]+Eq(x1:T|x0)[logt=1T1pθ(xt|xt+1)q(xt|xt1)]=Eq(x1:T|x0)[logpθ(x0|x1)]+Eq(x1:T|x0)[logp(xT)q(xT|xT1)]+t=1T1Eq(x1:T|x0)[logpθ(xt|xt+1)q(xt|xt1)]

上式第一项,第二项,第三项分别被称为 重建项(Reconstruction Term)先验匹配项(Prior Matching Term)一致项(Consistency Term)

  • 重建项。顾名思义,这是对最后构图的预测概率。给定预测的最后一个隐变量 x1,预测生成的图像 x0 的对数概率。
  • 先验匹配项。 这一项描述的是扩散过程的最后一步生成的高斯噪声与纯高斯噪声的相似度,因为这一项并没有神经网络参数,所以不需要优化,后续网络训练的时候可以将这一项舍去。
  • 一致项。这一项描述的是采样过程的单步转移概率 pθ(xt|xt+1) 和扩散过程的单步转移概率 q(xt|xt1) 的距离。由于 q(xt|xt1) 是服从高斯分布的(加噪过程自己定义的),所以我们希望采样过程的单步转移概率 pθ(xt|xt+1) 也服从高斯分布,这样才能使得二者的KL散度更加接近。我们之后会看到,最小化二者的KL散度等价于最大似然估计。

到这里我们通过观察可以发现,乘上 q(x1:T|x0),的期望中,存在很多无关的随机变量,因此这三项可以进一步化简。以上式重建项为例,我们将上式重建项写成积分形式:

Eq(x1:T|x0)[logpθ(x0|x1)]=q(x1:T|x0)logpθ(x0|x1)dx0:T

可能有的同学搞不清楚积分微元是哪个变量,如果不知道的话就把所有的随机变量都算为积分微元。如果哪个微元不需要的话,是可以被积分积掉的。注意到,x0 是真实图像,而不是随机变量,所以随机变量最多就是 x1:T。 具体我们来看:

Eq(x1:T|x0)[logpθ(x0|x1)]=q(x1:T|x0)pθ(x0|x1)dx1:T=...q(x1:T|x0)logpθ(x0|x1)dx1dx2...dxT=logpθ(x0|x1)[...q(x1:T|x0)dx2dx3...dxT]dx1=logpθ(x0|x1)q(x1|x0)dx1=Eq(x1|x0)[logpθ(x0|x1)]

类似地,我们看 先验匹配项一致项。先验匹配项中除了 xTxT1 这两个随机变量之外,其他的随机变量都会被积分积掉,于是就是:

Eq(x1:T|x0)[logp(xT)q(xT|xT1)]=q(x1:T|x0)logp(xT)q(xT|xT1)dx1:T=q(xT1,xT|x0)logp(xT)q(xT|xT1)dxT1dxT=Eq(xT1,xT|x0)[logp(xT)q(xT|xT1)]

一致项也用类似的操作:

t=1T1Eq(x1:T|x0)[logpθ(xt|xt+1)q(xt|xt1)]=t=1T1q(x1:T|x0)logpθ(xt|xt+1)q(xt|xt1)dx1:T=t=1T1q(xt1,xt,xt+1|x0)logpθ(xt|xt+1)q(xt|xt1)dxt1dxtdxt+1=t=1T1Eq(xt1,xt,xt+1|x0)[logpθ(xt|xt+1)q(xt|xt1)]

下面我们继续化简,化简乘KL散度的形式。因为两个高斯分布的KL散度可以写成二范数Loss的形式,这是我们编程可实现的。我们先给出KL散度的定义。设两个概率分布和 QP,在连续随机变量的情况下,他们的概率密度函数分别为 q(x) p(x),那么二者的KL散度为:

DKL(Q||P)=q(x)logp(x)q(x)dx

注意,KL散度没有对称性,即 KL(Q||P)KL(P||Q) 是不同的。

下面,我们以 一致项 中的其中一项为例子,来写成KL散度形式:

Eq(xt1,xt,xt+1|x0)[logpθ(xt|xt+1)q(xt|xt1)]=q(xt1,xt,xt+1|x0)logpθ(xt|xt+1)q(xt|xt1)dxt1dxtdxt+1=q(xt1,xt+1|x0)q(xt|xt1)logpθ(xt|xt+1)q(xt|xt1)dxt1dxtdxt+1=q(xt1,xt+1|x0){q(xt|xt1)logpθ(xt|xt+1)q(xt|xt1)dxt}dxt1dxt+1=q(xt1,xt+1|x0)DKL(q(xt|xt1)||pθ(xt|xt+1))dxt1dxt+1=Eq(xt1,xt+1|x0)[DKL(q(xt|xt1)||pθ(xt|xt+1))]

上式红色的部分,是参考的开篇提到的那两个教程。笔者自己推了一下,并没有得出相应的结果。

如果有好的解释,欢迎讨论。不过这里是否严格并不重要,之后我们会解释,事实上我们使用的是另外一种推导方式。

类似地,先验匹配项 也可以用类似的方法表示成KL散度的形式:

Eq(xT1,xT|x0)[logp(xT)q(xT|xT1)]=q(xT1,xT|x0)logp(xT)q(xT|xT1)dxT1dxT=q(xT1|x0)q(xT|xT1)logp(xT)q(xT|xT1)dxT1dxT=q(xT1|x0){q(xT|xT1)logp(xT)q(xT|xT1)dxT}dxT1=q(xT1|x0)DKL(q(xT|xT1)||p(xT))dxT1=Eq(xT1|x0)[DKL(q(xT|xT1)||p(xT))]

这里红色的部分,我们可以详细验证一下:

q(xT1|x0)q(xT|xT1)=q(xT1|x0)q(xT|xT1,x0)=q(xT1,xT|x0)

没有什么问题。

  下面我们整理一下结果。我们简化的证据下界为:

(9)L=Eq(x1:T|x0)[logpθ(x0|x1)]Eq(xT1|x0)[DKL(q(xT|xT1)||p(xT))]t=1T1Eq(xt1,xt+1|x0)[DKL(q(xt|xt1)||pθ(xt|xt+1))]

  我们看第三项,也就是 一致项。我们发现两个概率分布 q(xt|xt1)pθ(xt|xt+1) 有时序上的错位,如下图展示的粉色线和绿色线。这相当于最小化两个错一位的概率分布,这显然不是我们希望的结果。虽然错一位影响也不大,但总归是不完美的。而且,这两个转移概率的方向也不一样。因此,下面我们就要想办法对证据下界进行优化,看看能不能推导出两个在时序上完全对齐的两个概率分布的KL散度。

img

如何优化证据下界呢。我们放到下一篇文章中来讲:

从DDPM到DDIM (二) 前向过程与反向过程的概率分布。


  1. Luo C. Understanding diffusion models: A unified perspective[J]. arXiv preprint arXiv:2208.11970, 2022. ↩︎

  2. Chan S H. Tutorial on Diffusion Models for Imaging and Vision[J]. arXiv preprint arXiv:2403.18103, 2024. ↩︎

  3. Ho J, Jain A, Abbeel P. Denoising diffusion probabilistic models[J]. Advances in neural information processing systems, 2020, 33: 6840-6851. ↩︎

  4. Song J, Meng C, Ermon S. Denoising diffusion implicit models[J]. arXiv preprint arXiv:2010.02502, 2020. ↩︎

  5. Sohl-Dickstein J, Weiss E, Maheswaranathan N, et al. Deep unsupervised learning using nonequilibrium thermodynamics[C]//International conference on machine learning. PMLR, 2015: 2256-2265. ↩︎

posted @   txdt  阅读(529)  评论(1编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· Vue3状态管理终极指南:Pinia保姆级教程
点击右上角即可分享
微信分享提示