赞
踩
Diffusion模型打响了AIGC的第一枪,我之前一直是做GAN这一块的图像生成,但是奈何Diffuison模型效果好的离谱,也趁着空闲时间抱着学习的态度看看到底是他是靠着什么"吊打"GAN的,但是在推Diffusion公式的时候,牵扯到很多比较细碎的小知识点,有一些因为不常用也都忘记了,这里正好补充在这里,方便后续快速查询。
关于Diffusion相关的论文推导后面会单独开一个新的文章进行介绍。
后续:原本想要在CSDN上写该系列的第二个内容-理论推导,但是竟然有字数限制,如果要写必须分成两篇文章,这把我搞难受了,所以用Hexo和GitHub搞了个个人网站,有兴趣的同学欢迎移步那里继续交流分享。
总体思想: 过去的所有信息都被保存在了现在的状态中,只使用现在状态就能预测到之后的状态,换句话说就是某个时刻的状态转移概率只依赖于它的前一个状态。
公式化表达: P ( x t + 1 ∣ x t , x t − 1 , . . . , x 1 , x 0 ) = P ( x t + 1 ∣ x t ) P(x_{t+1}|x_t,x_{t-1},...,x_1,x_0)=P(x_{t+1}|x_t) P(xt+1∣xt,xt−1,...,x1,x0)=P(xt+1∣xt)
举例:
股市涨跌:当前股市的涨、跌、平的状态概率分别为[0.3,0.4,0.3],当前股市的涨、跌、平的状态概率分别为[0.3,0.4,0.3],且转移概率矩阵为:
[
0.9
,
0.075
,
0.025
0.15
,
0.5
,
0.05
0.25
,
0.25
,
0.5
]
(1)
\left[
比如第二行第三列的0.05表示今天跌,明天平的概率。
根绝上面的状态转移方程和今天的故事概率,可以依次得到后面每一轮涨、跌、平的概率:
[ 0.405 , 0.4175 , 0.1775 ] → [ 0.4715 , 0.49875 , 0.11975 ] → . . . → [ 0.625 , 0.315 , 0.0625 ] [0.405,0.4175,0.1775]\rightarrow[0.4715,0.49875,0.11975]\rightarrow...\rightarrow[0.625,0.315,0.0625] [0.405,0.4175,0.1775]→[0.4715,0.49875,0.11975]→...→[0.625,0.315,0.0625]
并且轮数在尽可能大的时候(60轮),那么状态概率就一直保持在 [ 0.625 , 0.315 , 0.0625 ] [0.625,0.315,0.0625] [0.625,0.315,0.0625],这也是马尔科夫链的状态转移稳定性。
放回袋中的取球问题:当前取球颜色的概率只与上次取完后的结果有关。
两个独立高斯分布相加仍然是高斯分布,且相加后的高斯分布均值为原两个高斯分布均值之和,方差为原方差之和:
N
(
x
1
;
μ
1
,
σ
1
2
)
+
N
(
x
2
;
μ
2
,
σ
2
2
)
=
N
(
x
1
+
x
2
;
μ
1
+
μ
2
,
σ
1
2
+
σ
2
2
)
(2)
\mathcal N(x_1;\mu_1,\sigma_1^2)+\mathcal N(x_2;\mu_2,\sigma_2^2)=\mathcal N(x_1+x_2;\mu_1+\mu_2,\sigma_1^2+\sigma_2^2) \tag{2}
N(x1;μ1,σ12)+N(x2;μ2,σ22)=N(x1+x2;μ1+μ2,σ12+σ22)(2)
AE(AutoEncoder)
VAE(Variational AutoEncoder)
区别于AE: 相比于AE,VAE更倾向于数据生成。只要训练好了Decoder,我们就可以从latent space的某一个标准正态分布采样latent code作为解码器Decoder的输入,来生成类似的、但是但不完全相同于训练数据的新数据,也许是我们从来没见过的数据,作用类似GAN
重点: 在训练过程中,就像AE一样输入数据x被输入到Encoder输入通过一系列层(由超参数控制)来减少其维度,以获得压缩的latent code z。但是Encoder并不是直接输出latent code z,而是输出每个潜在变量的平均值和标准差,注意这里说的是每个!即对于每一个输入样本x我们都期望其经过encoder得到的latent code也是一个正态分布中采样得到的,那么对于k个样本x就有k个正态分布,然后就有k个分别从这k个正态分布中采样得到的latent code用于输入到decoder中重建原输入x。而为了得到这k个正太分布我们就需要有k组均值和方差。
Latent code的方差不能为 0,因为我们还想要给模型一些训练难度。如果方差为 0,模型永远只需要学习高斯分布的均值,这样就丢失了随机性,VAE就变成AE了……**这就是为什么VAE要在AE前面加一个Variational:我们希望方差能够持续存在,从而带来噪声!**那如何解决这个问题呢?不仅需要保证有方差,还要让所有 P ( Z ∣ X ) P(Z|X) P(Z∣X) 趋于标准正态分布 N ( 0 , I ) \mathcal N(0,\Iota) N(0,I)。
参考:
如果我们需要从某个随机分布(如高斯噪声)中采样一个样本,这个过程是不可微的也无法进行反向传播,此时我们可以通过重采参数技巧使其可微。比如我们想要从一个普通高斯分布
z
∼
N
(
z
;
μ
,
σ
2
)
z\sim\mathcal N(z;\mu,\sigma^2)
z∼N(z;μ,σ2)中采样一个
z
z
z,那么我们就可以额外引入一个服从于标准高斯分布的独立随机变量
ϵ
∼
N
(
0
,
1
)
\epsilon\sim\mathcal N(0,1)
ϵ∼N(0,1),然后对这个随机变量缩放或偏移以接近原始待采样的分布,这个缩放和偏移的过程就是重参数的主要公式:
z
=
μ
+
σ
⋅
ϵ
,
其中
ϵ
∼
N
(
0
,
I
)
(3)
z=\mu+\sigma\cdot\epsilon,\text{ } 其中\text{ }\epsilon\sim\mathcal N(0,\Iota) \tag{3}
z=μ+σ⋅ϵ, 其中 ϵ∼N(0,I)(3)
即对一个标准高斯分布按照指定的标准差和均值进行缩放、偏移,就能获得符合原高斯分布
N
(
z
;
μ
,
σ
2
I
)
\mathcal N(z;\mu,\sigma^2\Iota)
N(z;μ,σ2I)的采样结果。
举一个掷骰子的例子,6个面每个面的向上的概率是
1
6
\frac16
61,那么其向上的点数值的期望就是:
1
×
1
6
+
2
×
1
6
+
3
×
1
6
+
4
×
1
6
+
5
×
1
6
+
6
×
1
6
=
3.5
(5)
1\times\frac16+2\times\frac16+3\times\frac16+4\times\frac16+5\times\frac16+6\times\frac16=3.5 \tag{5}
1×61+2×61+3×61+4×61+5×61+6×61=3.5(5)
边缘、联合概率的关系
:
P
(
A
)
=
∑
i
P
(
A
,
B
i
)
或
P
(
A
)
=
∫
B
P
(
A
,
B
)
边缘、联合、条件概率的关系
:
P
(
A
∣
B
)
=
P
(
A
,
B
)
P
(
B
)
贝叶斯公式由条件概率公式可以进一步推导得到:
P
(
A
∣
B
)
=
P
(
A
,
B
)
P
(
B
)
=
P
(
B
∣
A
)
P
(
A
)
P
(
B
)
P
(
A
∣
B
,
C
)
=
P
(
B
∣
A
,
C
)
P
(
A
∣
C
)
P
(
B
∣
C
)
其中
P
(
A
∣
B
,
C
)
P(A|B,C)
P(A∣B,C)表示在时间B和C同发生时,事件A发生的概率。
此外针对公式10-2有一些衍生的公式如下:
P
(
A
∣
B
,
C
)
=
P
(
A
,
B
,
C
)
P
(
B
,
C
)
=
P
(
B
∣
A
,
C
)
∗
P
(
A
∣
C
)
∗
P
(
C
)
P
(
B
∣
C
)
∗
P
(
C
)
=
P
(
B
∣
A
,
C
)
P
(
A
∣
C
)
P
(
B
∣
C
)
此外对于公式(11)的第一步的分子分母同时除以
P
(
C
)
P(C)
P(C)有:
P
(
A
∣
B
,
C
)
=
P
(
A
,
B
,
C
)
/
P
(
C
)
P
(
B
,
C
)
/
P
(
C
)
=
P
(
A
,
B
∣
C
)
P
(
B
∣
C
)
其中
P
(
A
,
B
∣
C
)
P(A,B|C)
P(A,B∣C)表示在事件C发生时,事件A和事件B同时发生发生的概率。
最大似然估计是被使用最为广泛一种参数估计方法,其核心思想就是:那么既然事情已经发生了,为什么不让这个出现的结果的可能性最大呢?。在深度学习中通俗来讲就是利用已知的样本信息(比如我们的训练数据集),去反推最有可能“完美”生成这批样本的模型的参数值,其满足的一个前提就是样本独立同分布。
这个参考文献中举了一个“袋中摸球”的例子很形象讲的很精彩,此外再完全引用其中的一段话:
" 对于函数
P
(
x
∣
θ
)
P(x|\theta)
P(x∣θ)输入有两个:
x
x
x表示某一个具体的数据/样本;
θ
\theta
θ表示模型的参数。
在深度学习中我们通常是样本 x x x已知去计算未知的模型参数 θ \theta θ,即 P ( x ∣ θ ) P(x|\theta) P(x∣θ)变成了一个似然函数,最大似然估计就是要求得参数 θ \theta θ使得该似然函数的值最大。
所以最大似然估计的函数表达式也很简单,就是最大化下面的函数:
E
q
(
x
)
log
(
p
(
x
∣
θ
)
)
(13)
E_{q(x)}\log(p(x|\theta)) \tag{13}
Eq(x)log(p(x∣θ))(13)
再举一个平时我自己用的一个例子:
对于深度学习中的分类问题,假定
y
=
f
θ
(
x
)
y=f_\theta(x)
y=fθ(x)即样本x经过参数为
θ
\theta
θ的网络
f
θ
f_\theta
fθ后输出的类别概率分布为
y
y
y,如果类别数是n,则y是一个长度为n的概率分布,其中元素
y
j
y^j
yj表示预测为第j类的概率,样本的GT我们规定为是一个长度为n的one-hot向量
y
~
j
\widetilde y^j
y
j,那么我们最好的网络肯定是希望预测的概率
y
i
y^i
yi和真实的标签
y
~
i
\widetilde y^i
y
i是近乎相同的(),那么可以将这种相似性写成如下形式:
P
(
y
~
∣
θ
)
=
∏
j
=
1
n
(
y
j
)
y
~
j
(14)
P(\widetilde y|\theta)=\prod_{j=1}^n(y^j)^{\widetilde y^j} \tag{14}
P(y
∣θ)=j=1∏n(yj)y
j(14)
通俗点理解就是希望在
y
~
\widetilde y
y
中为1的位置
y
y
y也为1;在
y
~
\widetilde y
y
中为0的位置
y
y
y也为0,对上式左右取log得:
log
P
(
y
~
∣
θ
)
=
∑
j
=
1
n
y
~
j
⋅
log
(
y
j
)
(15)
\log P(\widetilde y|\theta)=\sum_{j=1}^n\widetilde y^j\cdot \log(y^j) \tag{15}
logP(y
∣θ)=j=1∑ny
j⋅log(yj)(15)
可以发现上面其实就是计算两个离散分布
y
~
\tilde y
y~和
y
y
y的交叉熵的负数,最大化上面的结果就等于最小化这两个分布的交叉熵。而交叉熵其实这也就是分类任务中普遍常用的损失函数。
相比较于最大似然估计,最大后验概率估计是最大化 p ( x ∣ θ ) p ( θ ) p(x|\theta) p(\theta) p(x∣θ)p(θ),即最合适的 θ \theta θ不仅仅让似然函数 p ( x ∣ θ ) p(x|\theta) p(x∣θ)最大,也要让 p ( θ ) p(\theta) p(θ)尽量大,因为根据贝叶斯公式有: p ( θ ∣ x ) = p ( x ∣ θ ) p ( θ ) p ( x ) p(\theta|x)=\frac{p(x|\theta)p(\theta)}{p(x)} p(θ∣x)=p(x)p(x∣θ)p(θ),因为 p ( x ) p(x) p(x)是真实数据分布,所以最大后验估计优化的上式分子最大值,其实也就是整体 p ( θ ∣ x ) p(\theta|x) p(θ∣x)的最大,即后验证概率,这也就是"最大后验概率估计"的名字由来。 参考文献讲的很好。
最大似然估计(MLE)和最大后验概率估计(MAP)的区别在于:MAP就是多个作为因子的先验概率 p ( θ ) p(\theta) p(θ)。或者也可以反过来认为MLE是把先验概率 p ( θ ) p(\theta) p(θ)认为等于1,即认为 θ \theta θ是均匀分布。
变分下限(VLB)也叫evidence lower bound (ELBO).
在最大似然估计中,有时候难以直接计算并最大化似然函数 p ( x ∣ θ ) p(x|\theta) p(x∣θ)–也可以写成 p θ ( x ) p_\theta(x) pθ(x)那么如果我们可以知道他的一个下界,那么最大化他的一个下界,也就可以保证原始的似然函数 p ( x ∣ θ ) p(x|\theta) p(x∣θ)尽可能大。这里我们要引入另一个分布 q ( z ) q(z) q(z),我们可以理解为 x x x和 z z z分别是VAE中的观测值(原始数据)和隐变量,两者的关系为我们将隐变量 z z z输入到一个decoder中得到结果 x x x,其中隐变量 z z z一般我们可以规定其从高斯分布中采样而来,即 q ( x ) q(x) q(x)可以假定为一个高斯分布,现在我们从两个角度求原似然函数 p ( x ∣ θ ) p(x|\theta) p(x∣θ)的下界,其中 p ( x ∣ θ ) p(x|\theta) p(x∣θ)均简写为 p ( x ) p(x) p(x)。
琴生不等式:
log
p
(
x
)
=
log
∫
z
p
(
x
,
z
)
=
log
∫
z
p
(
x
,
z
)
q
(
z
)
q
(
z
)
=
log
(
E
q
(
z
)
p
(
x
,
z
)
q
(
z
)
)
≥
E
q
(
z
)
log
p
(
x
,
z
)
q
(
z
)
=
E
q
(
z
)
log
p
(
x
,
z
)
−
E
q
(
z
)
log
q
(
z
)
=
E
q
(
z
)
log
p
(
x
,
z
)
+
H
(
q
)
=
V
L
B
KL散度:
log
p
(
x
)
=
log
p
(
x
)
∫
z
q
(
z
)
=
∫
z
q
(
z
)
log
p
(
x
)
=
∫
z
q
(
z
)
log
p
(
x
,
z
)
p
(
z
∣
x
)
=
∫
z
q
(
z
)
log
p
(
x
,
z
)
q
(
z
)
q
(
z
)
p
(
z
∣
x
)
=
∫
z
q
(
z
)
log
p
(
x
,
z
)
−
∫
z
q
(
z
)
log
q
(
z
)
+
∫
z
q
(
z
)
log
q
(
z
)
p
(
z
∣
x
)
=
E
q
(
z
)
log
p
(
x
,
z
)
−
E
q
(
z
)
log
q
(
z
)
+
E
q
(
z
)
log
q
(
z
)
p
(
z
∣
x
)
=
E
q
(
z
)
log
p
(
x
,
z
)
+
H
(
q
)
+
K
L
(
q
(
z
)
∣
∣
p
(
z
∣
x
)
)
≥
E
q
(
z
)
log
p
(
x
,
z
)
+
H
(
q
)
=
V
L
B
凸函数
f
(
x
)
f(x)
f(x)满足对于任意点集
x
i
{x_i}
xi有:
离散型表示
:
∑
i
λ
i
f
(
x
i
)
≥
f
(
∑
i
λ
i
x
i
)
概率论中表示
:
E
[
f
(
x
)
]
≥
f
(
E
(
x
)
)
连续性表示
:
∫
f
(
x
)
λ
(
x
)
d
x
≥
f
(
∫
x
λ
(
x
)
d
x
)
,
其中
λ
(
x
)
为概率密度
而凸函数的定义也很简单,其实就是向下凸的函数,常见的凸函数有
log
(
x
)
、
x
2
\log(x)、x^2
log(x)、x2等
换句话说就是:函数值的加权和 ≥ \geq ≥加权和的函数值
KL散度又称相对熵,用于描述两个概率分布 P P P和 Q Q Q的差异性
一般分布的KL散度求解:
D
K
L
(
P
∣
∣
Q
)
=
∑
P
(
x
)
log
P
(
x
)
Q
(
x
)
=
−
∑
P
(
x
)
log
Q
(
x
)
+
∑
P
(
x
)
log
(
P
(
x
)
)
=
H
(
P
,
Q
)
−
H
(
P
)
可以看到最终KL散度其实可以转化成交叉熵
H
(
P
,
Q
)
H(P,Q)
H(P,Q)和熵
H
(
P
)
H(P)
H(P)的差,且KL散度有两个重要性质:
正是由于KL散度的不对称性问题使得在某些训练过程中可能存在一些问题,为了解决这个问题则在KL散度基础上引入了JS散度,假定
M
=
1
2
(
P
+
Q
)
M=\frac12(P+Q)
M=21(P+Q),则JS散度可以表示为:
J
D
S
(
P
∣
∣
Q
)
=
1
2
K
L
(
P
∣
∣
M
)
+
1
2
K
L
(
Q
∣
∣
M
)
=
1
2
∑
p
(
x
)
log
(
p
(
x
)
p
(
x
)
+
q
(
x
)
)
+
1
2
∑
q
(
x
)
log
(
q
(
x
)
p
(
x
)
+
q
(
x
)
)
+
log
2
参考文献中的一段内容: JS散度是对称的,其取值是 0 到 1 之间。如果两个分布 P和Q 离得很远,完全没有重叠的时候,那么KL散度值是没有意义的,而公式(11)中JS散度值两个
∑
\sum
∑是0,所以总体JS散度是一个常数(log2),这在学习算法中是比较致命的,这就意味这这一点的梯度为 0,梯度消失了。
证明P、Q不重叠时JS散度其实也很简单,就是因为不重叠,所以任意一个x, p ( x ) p(x) p(x)和 q ( x ) q(x) q(x)中至少有一个为0,再计算公式(11)就很容易得到两个 ∑ \sum ∑都是0,最后JS散度就变成了常数log2.
思考:为什么会出现两个分部没有重叠的现象?
真实数据的分布其实是高维空间下的一个低维流行(可以类比想象成立体3维空间里的一个2维平面,而真实情况下可能空间维度),我们的数据没有"撑满"整个空间,这就导致很难重合。原始GAN的损失函数的最终优化目标就是优化真实数据分布和生成数据分布的JS散度,所以GAN有时候可能会出现训练崩塌的情况。
对于特殊的分布-高斯分布,我们可以直接通过其均值和方差快速求解KL散度:
KaTeX parse error: Multiple \tag
上面分别表示一元高斯分布和多元高斯分布的KL散度直接求解,其中
d
e
t
(
A
)
det(A)
det(A)和
t
r
(
A
)
tr(A)
tr(A)分别表示矩阵的模和迹。
参考链接
富比尼定理提供了逐次积分的方法计算双重积分的条件。不但可以用逐次积分计算双重积分,而且在交换逐次积分的顺序时,保证了积分结果不会变
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。