当前位置:   article > 正文

PRML第二章

prml第二章

目录

 

2 概率分布

2.1 二元变量

2.1.1 Beta分布

2.2 多项式变量

2.2.1 狄利克雷分布

2.3 高斯分布

2.3.1 条件高斯分布

2.3.2 边缘高斯分布

2.3.3 高斯变量的贝叶斯定理

2.3.4 高斯分布的最大似然估计

2.3.5 顺序估计

2.3.6 高斯分布的贝叶斯推断

2.3.7 学生t分布

2.3.8 周期变量

2.3.9 高斯混合模型

2.4 指数分布

2.4.1 最大似然与充分统计量

2.4.2 共轭先验

2.4.3 无信息先验

2.5 非参数估计

2.5.1 核密度估计

2.5.2 邻近方法


2 概率分布

本章学习各种特殊的概率分布。讨论的概率分布的一个作用:在有限观测下,对 p(x) 进行建模-----密度估计(假设每次取样都是独立同分布的)。

我们用离散随机变量的二项分布和多项式分布,连续随机变量的高斯分布的参数估计。

引入两种观点:

  • 频率派计算似然函数之类的确定参数。
  • 贝叶斯派引入参数的先验,来计算后验。

还有个重要的概念:共轭先验:后验概率和先验概率分布的函数形式相同。

也会介绍非参数密度估计的方法。

2.1 二元变量

1.一个二元随机变量 x{0,1} ,即x只能取0或1。取x=1的概率是 μ 那么:

p(x=1|μ)=μ                 (2.1)

其中 0μ1  ,所以 p(x=0|μ)=1μ。概率分布为:

Bern(x|\mu)=\mu^x(1-\mu)^{1-x}                  (2.2)

这就是伯努利分布。

2.伯努利分布是归一化的。均值和方差为:

E[x]=μ                          (2.3)

var[x]=μ(1μ)                         (2.4)

3,如果观测值是 D={x1,,xN} ,每次观测都是在 p(x|μ) 中抽取。则似然函数有:

p(D|\mu)=\prod ^N_{n=1}p(x_n|\mu)=\prod ^N_{n=1}\mu^{x_n}(1-\mu)^{1-x_n}                         (2.5)

4.频率派:最大化似然函数来估计参数=》最大化对数似然(伯努利分布):

ln\:p(D|\mu)=\sum^N_{n=1}lnp(x_n|\mu)=\sum^N_{n=1}\left \{ x_nln\mu+(1-x_n)ln(1-\mu) \right \}                      (2.6)

这个只用N次观测结果得到的似然函数,也叫充分统计量。令其导数为零,我们有最大似然的估计值时的 μ :

\mu_{ML}=\frac{1}{N}\sum^N_{n=1}x_n                       (2.7)

这也叫做样本均值。如果把 x=1 的观测次数记录为m,则(2.7)可以写成:

\mu_{ML}=\frac{m}{N}                       (2.8)

但这个只用观测可能不靠谱,仍硬币三次刚好都是正面 N=m=3,则会判断未来观测都是正面。

所以一般引入 μ 的先验分布来解决。

5.换一个角度,在给定数据集规模 N 的条件下, x=1 的观测出现数量 m 的概率分布叫做:二项分布。

6.根据公式(2.5)可以看到,这个概率正比于 μm(1μ)Nm 的,就是每次扔硬币的结果叠乘得到的。

并且需要归一化常熟:N 次抛掷中,m 个正面向上的次数的组合 C^\textbf{m}_\textbf{N} 为归一化常熟,因此二项分布(似然函数)可以写成:

Bin(m|N,\mu)=\binom{N}{m}\mu^m(1-\mu)^{N-m}                      (2.9)

其中:

\binom{N}{m}\equiv \frac{N!}{(N-m)!m!}                             (2.10)

是从总数为 N 的完全相同的物体中选择 m 个物体的方式的总数。图 2.1 给出了 N=10、μ=0.25 情况下的二项分布示意图:

7.二项分布的均值和方差可以使用练习 1.10 的结果得到:加和的均值是均值的加和,加和的方差是方差的加和:

由于 m=x_1+\cdots +x_N,并且对于每次观察,均值和方差都分别由公式(2.3)和(2.4)给出,因此我们有:期望=值 x 概率

E[m]\equiv \sum^N_{m=0}m\, Bin(m|N,\mu)\equiv N\mu                        (2.11)

var[m]=\sum^N_{m=0}(m-E[m])^2Bin(m|N,\mu)=N\mu(1-\mu)                             (2.12)

2.1.1 Beta分布

1.直接用最大似然,如果是小数据集会过拟合,因此引入 一个关于μ 的先验概率分布 p(μ) 来解决。

2.似然是一个 μx(1μ)1x 的乘积形式。我们选择先验也是这样的形式的话,后验也会是这样的形式,这叫做共轭性。所以我们选择先验为 Beta 分布:

Beta(μ|a,b)=Γ(a+b)Γ(a)Γ(b)μa1(1μ)b1                      (2.13)

其中,Γ(x) 是由(1.141)定义的 Gamma 函数:

\Gamma (x) \equiv \int^\infty_0\mu^{x-1}e^{-\mu}\, du

满足归一化:

\int_0^1 Beta(\mu|a,b)d\mu = 1                          (2.14)

Beta 分布的均值和方差:参数a和b经常被称为超参数(hyperparameter),因为它们控制了参数µ的概率分布,图2.2给出 了不同的超参数值对应的Beta分布的图像。

E[\mu]=\frac{a}{a+b}                        (2.15)

var[\mu]=\frac{ab}{(a+b)^2(a+b+1)}                       (2.16)

证明:

3. \mu 的后验概率分布: Beta先验(2.13)和二项似然函数(2.9)相乘,归一化,可得到:

p(\mu|m,l,a,b) \propto \mu^{m+a-1}(1-\mu)^{l+b-1}                 (2.17)

其中 l=N-m ,即对应 x=0 的样本数量。关于µ的函数形式和 先验分布 的形式相同。先验关于似然函数的共轭性质。对比(2.13)就可以得到归一化系数:

p(\mu|m,l,a,b) = \frac{\Gamma(m+a+l+b)}{\Gamma(m+a)\Gamma(l+b)}\mu^{m+a-1}(1-\mu)^{l+b-1}                         (2.18)

从先验到后验,a的值增加了m,b的值增加了 l 。超参数a和b叫有效观测数。再进行新的观测,这里的后验又变成下次观测的先验。

4.先验为Beta分布,a=2,b=2,似然是2.9,其中N=m=1,后验概率是Beta分布,变成a=3,b=2.这样顺序学习,每次有新数据,用更新过的先验来处理就可以,不需要之前的数据

5.如果我们目标是尽可能好地进行预测下一次数据,那么在给定观测数据D的情况下,x的预测分布就是:

p(x=1|D) = \int_0^1p(x=1|\mu)p(\mu|D)d\mu = \int_0^1\mu p(\mu|D)d\mu = \mathbb{E}[\mu|D]                          (2.19)

根据(2.18)和(2.13)的形式对应。和(2.15)对比,我们可以得到:

p(x=1|D) = \frac{m+a}{m+a+l+b}                              (2.20)

当m,l趋近于无限大,(2.20)变成最大似然的结果(2.8).贝叶斯后验和最大似然结果在数据趋近于无穷的情况会统一(不仅仅在beta分布下成立,在其他分布也有这样性质)。数据没那么多,μ的后验均值在先验均值和公式(2.7)给出的最大似然之间。(折中)

在图中,当观测数量增多,后验分布更尖了。2.16的公式给出的方差也可以看出,a或b趋近于无穷的时候,方差就趋于零。观测点增加,后验的不确定性下降

6.我们用频率学角度证明这点。考虑一个贝叶斯推断,参数为 \theta 并且观测了一个数据集 D ,由联合分布 p(θ,D) 表示:

\mathbb{E}_\theta[\theta] = \mathbb{E}_D[\: \: \mathbb{E}_\theta[\theta|D]\: \: ]                     (2.21)

其中:

\mathbb{E}_\theta[\theta] = \int p(\theta)\theta d\theta                           (2.22)

\mathbb{E}_{\mathcal{D}}\left[\: \: \mathbb{E}_{\boldsymbol{\theta}}[\boldsymbol{\theta} \mid \mathcal{D} ]\: \:\right] \equiv \int\left\{\int \boldsymbol{\theta} p(\boldsymbol{\theta} \mid \mathcal{D}) \mathrm{d} \boldsymbol{\theta}\right\} p(\mathcal{D}) \mathrm{d} \mathcal{D}                     (2.23)

\theta 的后验均值(在产生数据集的分布上的平均)等于 \theta 的先验均值。同样的我们可以得到:(2.23)

var_{\theta}[\theta] = \mathbb{E}_{\mathcal{D}}\left[ var_\theta[\theta|\mathcal{D}]\right] +var_{\mathcal{D}}\left[\mathbb{E}_\theta[\theta|\mathcal{D}]\right]                         (2.24)

公式(2.24)中左边是θ的先验方差。右边的第一项是θ的后验方差的均值。第二项是θ的后验均值的方差。因为方差是一个正的量(第二项大于零),所以一般来说,θ的后验方差小于先验方差。后验均值的方差越大,这个差值的就越大。注意,这个结果只在通常情况下成立,对于特定的观测数据集,后验方差有可能大于先验方差。

2.2 多项式变量

1.二元变量:2个状态中取某一种的量。推广到 k 个互斥状态,用 one-hot 表示。比如 K=6,x3=1 :

x = (0, 0, 1, 0, 0, 0)^T                    (2.25)

这样向量满足 k=1Kxk=1 。如果用参数 μk 来标记 xk=1  的概率,那么我们就得到 x 的分布:

p(x|\mu) = \prod\limits_{k=1}^K\mu_k^{x_k}                 (2.26)

其中 μ=(μ1,...,μK)T ,由于参数 μk 表示概率,所以需要满足 μk0 且 kμk=1  。

公式(2.26)分布可以看作伯努利分布在多于两种输出时的泛化。很容易证明这个分布是标准化的:

xp(x|μ)=k=1Kμk=1                  (2.27)

并且:

\mathbb{E}[x|\mu] = \sum\limits_xp(x|\mu)x = (\mu_1,...,\mu_M)^T = \mu                      (2.28)

2.考虑一个有 N 个独立观测值 x_1,...,x_N 的数据集 D 。其对应的似然函数的形式为:

p(D|μ)=n=1Nk=1Kμkxnk=k=1Kμk(nxnk)=k=1Kμkmk                            (2.29)

令:

mk=nxnk                      (2.30)

它表示观测到 xk=1 的次数。这被称为这个分布的充分统计量。

求最大似然解,我们需要在μk 的和等于1的约束下,关于 μk 最大化 lnp(D|μ) 。这可以通过拉格朗日乘数法得到,即:

\sum\limits_{k=1}^{K}m_k\ln\mu_k + \lambda(\sum\limits_{k=1}^K\mu_k - 1 )                       (2.31)

对公式(2.31)关于\mu_k 求导并使之等于0得到:

\mu_k = -m_k / \lambda                             (2.32)

把公式(2.32)代入限制条件 kμk=1,可得 λ=N 。所以我们的最大似然解:

\mu_k^{ML} = \frac{m_k}{N}                  (2.33)

就是观测 x_k=1出现占总观测的比例。

3.考虑 m_1,...,m_K 在参数 \mu 和观测总数N条件下联合分布。通过公式(2.29)得到:

Mult(m_1,...,m_k|\mu,N) = \binom{N}{m_1m_2...m_k}\prod\limits_{k=1}^K\mu_k^{m_k}                            (2.34)

这就是多项式分布。标准化系数是把N个物体分成大小为m1,...,mK 的K组的方案总数,定义为:

\binom{N}{m_1m_2...m_k} = \frac{N!}{m_1!m_2!...m_k!}                          (2.35)

m_k 满足下面的约束:

\sum\limits_{k=1}^Km_k = N                    (2.36)

2.2.1 狄利克雷分布

1.多项式分布(2.34) 的参数 μk 的一组先验分布。观察多项式分布的公式,得到共轭先验:

p(\mu|\alpha) \propto \prod\limits_{k=1}^{K}\mu_k^{\alpha_k - 1}                   (2.37)

其中 0μk1  ,kμk=1  ,(α1,...,αK)T记作 α 是分布的参数。注意,由于总和的限制,μk 空间上的分布被限制在 K1 维的单纯形中。图2.4展示了 K=3 的情形。

归一化得到:(归纳法,习题2.9有思路)狄利克雷分布

Dir(\mu|\alpha) = \frac{\Gamma(\alpha_0)}{\Gamma(\alpha_1)...\Gamma(\alpha_K)}\prod\limits_{k=1}^K\mu_k^{\alpha_k - 1}                          (2.38)

而且:

\alpha_0 = \sum\limits_{k=1}^K\alpha_k               (2.39)

图2.5给出了在不同的参数αk的情况下,单纯形上的狄利克雷分布的图像,分布对应:

{\alpha_k} = 0.1, {\alpha_k} = 1, {\alpha_k} = 10

2.用似然(2.34)乘先验(2.38)就得到后验分布,形式为:

p(\mu|D,\alpha) \propto p(D|\mu)p(\mu|\alpha) \propto \prod\limits_{k=1}^K\mu_k^{\alpha_k + m_k - 1}                       (2.40)

因为形式与先验相同,对比写出归一化系数:

p(\mu|D, \alpha) = Dir(\mu|\alpha + m) \ = \frac{\Gamma(\alpha_0 + N)}{\Gamma(\alpha_1+m_1)...+\Gamma(\alpha_K+m_K)}\prod\limits_{k=1}^K\mu_k^{\alpha_k + m_k - 1}                                         (2.41)

其中m=(m1,...,mK)T    。与二项分布的beta先验一样,可以把狄利克雷分布参数 αk 当成观测到xk=1 的数量。而二元变量就是多项式变量的一个特例。

 

2.3 高斯分布

1.单变量(⼀元变量)x:

\mathcal{N}\left(x | \mu, \sigma^{2}\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{\frac{1}{2}}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\}                      (2.42)

2.D维向量x:

\mathcal{N}(x|\mu, \Sigma) = \frac{1}{(2\pi)^{D/2}} \frac{1}{|\Sigma|^{1/2}} exp\{-\frac{1}{2}(x-\mu)^T\Sigma^{-1}(x - \mu)\}                     (2.43)

\mu是一个D维均值向量,Σ 是一个 DxD 的协方差矩阵,|Σ| 是 Σ  的行列式。

3.不同理解角度:

熵取得最大值的是高斯分布。

一组随机变量之和,概率分布随着项(随机变量个数)增加趋近于高斯分布。(拉普拉斯中心极限定理)比如均匀分布还有之前的二项分布。

4.高斯分布的几何形式,高斯对于x的依赖是通过下面二次型的形式:

\Delta^2 = (X-\mu)^T\Sigma^{-1}(X-\mu)                                 (2.44)

这里 \Delta 就是 x 和 \mu 之间的马氏距离。当  是单位矩阵时候就是欧式距离。 x空间中这个二次型是常熟曲面,高斯分布是常熟。

矩阵 \Sigma 可以取为对称矩阵,而不失去一般性,以为任何非对称项都会从指数中消失。

现在考虑协方差矩阵的特征向量方程(Av=λv):

\Sigma u_i = \lambda_iu_i                      (2.45)

其中 i=1,...,D 。因为 Σ 是实对称矩阵,所以他的特征值也是实数(下图推导),特征向量可以是单位正交(下图推导),得到:

u_i^Tu_j = I_{ij}                       (2.46)

其中 I_{ij} 是单位矩阵的第 i,j 个元素,满足:

I_{i j}=\left\{\begin{array}{ll} 1, \: \: if \: \: i=j \\ 0, \:\:else\:\: \end{array}\right.                           (2.47)

也就是相同为1,不同为0.

协方差矩阵 \Sigma 可以表示成特征向量的展开的形式:

\Sigma = \sum\limits_{i=1}^D\lambda_iu_iu_i^T               (2.48)

同样的协方差的逆矩阵 \Sigma^{-1} 可以表示为:

\Sigma^{-1} = \sum\limits_{i=1}^D\frac{1}{\lambda_i}u_iu_i^T                            (2.49)

5.把公式(2.49)代入公式(2.44),二次型就变成了:

\Delta^2 = \sum\limits_{i=1}^D \frac{y_i^2}{\lambda_i}                        (2.50)

其中:

y_i = u_i^T(x - \mu)                    (2.51)

我们可以把 y_i 解释为由正交向量 u_i 关于原来的 x_i 坐标系平移和旋转之后得到的新坐标系。记 Y=(y1,...,yD)T ,可得:

Y = U(X - \mu)                          (2.52)

其中 U 是由行向量 u_i^T 组成的。根据公式(2.46)可得 U 是正交矩阵,即它满足 UUT=I,UTU=I ,其中 I 是单位矩阵。

6.如果公式(2.50)是常数时,那么二次型和高斯密度在曲面上为常熟。如果所有特征值 λi 都是正的,那么这些曲面是中心位于 μ ,轴方向为 μi ,轴方向的缩放比例为 λi1/2 的椭球面,如图2.7所示:

7.协方差矩阵的所有特征值都严格大于零,这是为了正确归一化,这就是正定矩阵(2.57解释)。

如果所有特征值都是非负的,就是半正定矩阵。

8.现在考虑 yi 定义下的高斯分布形式,就是进行了一次坐标变化,Jacobian矩阵的元素为:

J_{ij} = \frac{\partial x_i}{\partial y_j} = U_{ji}                       (2.53)

其中 Uji 是矩阵 UT 的元素。由矩阵 U 的正交性,可得:

|J|^2 = |U^T|^2 = |U^T||U| = |U^TU| = |I| = 1                              (2.54)

由此可得 |J|=1 .且协方差矩阵的行列式 |Σ| 可以写成特征值的乘积:

|\Sigma|^{1/2} = \prod\limits_{j=1}^D \lambda_j^{1/2}                     (2.55)

因此在 yj 坐标系中,高斯分布的形式为:

p(\boldsymbol{y})=p(\boldsymbol{x})|\boldsymbol{J}|=\prod_{j=1}^{D} \frac{1}{\left(2 \pi \lambda_{j}\right)^{\frac{1}{2}}} \exp \left\{-\frac{y_{j}^{2}}{2 \lambda_{j}}\right\}                                      (2.56)

它具有归一化:

\int p(\boldsymbol{y}) \mathrm{d} \boldsymbol{y}=\prod_{j=1}^{D} \int_{-\infty}^{\infty} \frac{1}{\left(2 \pi \lambda_{j}\right)^{\frac{1}{2}}} \exp \left\{-\frac{y_{j}^{2}}{2 \lambda_{j}}\right\} \mathrm{d} y_{j}=1                           (2.57)

期望:

\begin{aligned} \mathbb{E}[\boldsymbol{x}] &=\frac{1}{(2 \pi)^{\frac{D}{2}}} \frac{1}{|\mathbf{\Sigma}|^{\frac{1}{2}}} \int \exp \left\{-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu})^{T} \boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu})\right\} \boldsymbol{x} \mathrm{d} \boldsymbol{x} \\ &=\frac{1}{(2 \pi)^{\frac{D}{2}}} \frac{1}{|\boldsymbol{\Sigma}|^{\frac{1}{2}}} \int \exp \left\{-\frac{1}{2} \boldsymbol{z}^{T} \boldsymbol{\Sigma}^{-1} \boldsymbol{z}\right\}(\boldsymbol{z}+\boldsymbol{\mu}) \mathrm{d} \boldsymbol{z} \end{aligned}                          (2.58)

z=x-\mu 替换: 

\mathbb{E}[X] = \mu                             (2.59)

二阶矩是:

\begin{aligned} \mathbb{E}\left[\boldsymbol{x} \boldsymbol{x}^{T}\right] &=\frac{1}{(2 \pi)^{\frac{D}{2}}} \frac{1}{|\mathbf{\Sigma}|^{\frac{1}{2}}} \int \exp \left\{-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu})^{T} \boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu})\right\} \boldsymbol{x} \boldsymbol{x}^{T} \mathrm{d} \boldsymbol{x} \\ &=\frac{1}{(2 \pi)^{\frac{D}{2}}} \frac{1}{|\boldsymbol{\Sigma}|^{\frac{1}{2}}} \int \exp \left\{-\frac{1}{2} \boldsymbol{z}^{T} \boldsymbol{\Sigma}^{-1} z\right\}(\boldsymbol{z}+\boldsymbol{\mu})(\boldsymbol{z}+\boldsymbol{\mu})^{T} \mathrm{d} \boldsymbol{z} \end{aligned}

也用 z=x-\mu 来替换。交叉项 \mu z^T 和 z\mu^T 因为对称性抵消,\mu\mu^T 为常数可以拿出,本身又是单位向量被归一化。对于zz^T 项,我们可以得到:

z = \sum\limits_{j=1}^Dy_ju_j                                (2.60)

其中 yj=ujTz 

推出:

1(2π)D21|Σ|12exp{12zTΣ1z}zzTdz=1(2π)D21|Σ|12i=1Dj=1DuiujTexp{k=1Dyk22λk}yiyjdy=i=1DuiuiTλi=Σ                                (2.61)

所以:

\mathbb{E}[XX^T] = \mu\mu^T + \Sigma                   (2.62)

所以:

var[X] = \mathbb{E}[(X - \mathbb{E}[X])(X - \mathbb{E}[X])^T]                        (2.63)

$$var[X]=Σ

9.高斯分布的问题,参数太多,平方增长,无法求逆:

  • 一个对称协方差 \Sigma 有 D(D+1)/2 个参数,μ 有 D 个参数,一共 D(D+3)/2 个参数。
  • 一个对角协方差矩阵 Σ=diag(σi2) ,一共 2D 个参数
  • 再正比于单位矩阵 Σ=σ2I ,一共 D+1 个参数。常数概率密度轮廓线如下

坐标变换

轮廓线说明:

常熟概率密度轮廓线:

10.另一局限性是单峰的,不能近似多峰问题,可以近似的概率有限。

11.引入潜在变量,来解决  >HMM ,卡尔曼滤波器,马尔科夫随机场之类的。

2.3.1 条件高斯分布

1.多元高斯性质:如果两个变量的联合高斯分布,那么一个变量为条件的高斯分布也是高斯分布。边缘高斯分布也是高斯分布

2.假设 x 是服从高斯分布 N(x|μ,Σ) 的 D维向量,把 x 划分为两个不相交的子集 xa,xb 。令 xa 为 x 的前 M 个分量,令 xb 为剩下的 DM个分量,得到:

\boldsymbol{x}=\left(\begin{array}{l} \boldsymbol{x}_{a} \\ \boldsymbol{x}_{b} \end{array}\right)                          (2.65)

\boldsymbol{\mu}=\left(\begin{array}{l} \boldsymbol{\mu}_{a} \\ \boldsymbol{\mu}_{b} \end{array}\right)                          (2.66)

\boldsymbol{\Sigma}=\left(\begin{array}{cc} \boldsymbol{\Sigma}_{a a} & \boldsymbol{\Sigma}_{a b} \\ \boldsymbol{\Sigma}_{b a} & \boldsymbol{\Sigma}_{b b} \end{array}\right)              (2.67)

协方差矩阵是对称的,即 ΣT=Σ ,可得 Σaa,Σbb 也是对称的。

有时候使用协方差的逆矩阵会比较方便:

\Lambda\equiv \Sigma^{-1}                                (2.68)

这被称为精度矩阵。精度矩阵的划分形式:

\boldsymbol{\Lambda}=\left(\begin{array}{cc} \boldsymbol{\Lambda}_{a a} & \boldsymbol{\Lambda}_{a b} \\ \boldsymbol{\Lambda}_{b a} & \boldsymbol{\Lambda}_{b b} \end{array}\right)              (2.69)

ΛabT=Λba,需要强调的一点是:Λaa不单单是对Σaa求逆这么简单。

3.首先,找到条件分布 p(xa|xb) 的条件分布。根据概率的乘法规则,由联合分布 p(x)=p(xa,xb) 通过把 xb 固定为观测到的值,然后标准化所得到的表达式就可以得到 xa 上的有效概率。

4,简单说就是先算二次型,再算系数。确定均值和方差。

5.如果我们使⽤公式(2.65)、公 式(2.66)和公式(2.69)的划分⽅式,我们有一个二次型:

-\frac{1}{2}(x-\mu)^T\Sigma^{-1}(x-\mu) = -\frac{1}{2}(x_a - \mu_a)^T\Lambda_{aa}(x_a - \mu_a) -\frac{1}{2}(x_a - \mu_a)^T\Lambda_{ab}(x_b - \mu_b) -\frac{1}{2}(x_b - \mu_b)^T\Lambda_{ba}(x_a - \mu_a) -\frac{1}{2}(x_b - \mu_b)^T\Lambda_{bb}(x_b - \mu_b)                           (2.70)

把它看成 xa 的函数,这又是一个二次型,可以推出对应的条件分布 p(xa|xb) 是高斯分布。

6.一个通用的高斯分布 N(x|μ,Σ) 的指数项可以写成:

-\frac{1}{2}(x-\mu)^T\Sigma^{-1}(x-\mu) = -\frac{1}{2}x^T\Sigma^{-1}x + x^T\Sigma^{-1}\mu + const                          (2.71)

const为常数,表示与 x 无关的项。(2.71)可以直接对应系数就可以求得均值和方差。

7.条件高斯分布的指数项的二次型由公式(2.70)给出,我们把这个分布的均值和协方差分别记作 μa|b 和 Σa|b 。考虑公式(2.70)对 xa 的函数依赖关系,其中 xb 被当成常数。如果我们选出所有xa的二阶项,那么:

-\frac{1}{2}x_a^T\Lambda _{aa}x_a                    (2.72)

可以看出 p(xa|xb) 的协方差(精度矩阵的逆矩阵)为:

\Sigma_{a|b}=\Lambda ^{-1}_{aa}                      (2.73)

现在考虑公式(2.70)中所有 x_a 的常数项:

x_a^T \left \{ \Lambda _{aa}\mu_a-\Lambda_{ab}(x_b-\mu_b) \right \}               (2.74)

其中,我们使用了 ΛbaT=Λab 这个等式,根据我们对一般形式(2.71)的讨论,这个表达式中 xa 的系数一定等于 Σa|b1μa|b ,因此:

\mu_{a|b}=\Sigma_{a|b}\left \{ \Lambda_{aa}\mu_a-\Lambda_{ab}(x_b-\mu_b) \right \}=\mu_a-\Lambda^{-a}_{aa}\Lambda_{ab}(x_b-\mu_b)                    (2.75)

然后将精度矩阵替换回协方差矩阵,使用下面的关于分块矩阵的逆矩阵的恒等式:

\begin{pmatrix} A &B \\ C & D \end{pmatrix}^{-1}=\begin{pmatrix} M &-MBD^{-1} \\ -D^{-1}CM & D^{-1}+D^{-1}CMBD^{-1} \end{pmatrix}                 (2.76)

其中我们已经定义了:

M=(A-BD^{-1}C)^{-1}                          (2.77)

M1被称为公式(2.76)左侧矩阵关于子矩阵D 的舒尔补。使用定义:

\begin{pmatrix} \Sigma_{aa}&\Sigma_{ab} \\ \Sigma_{ba}&\Sigma_{bb} \end{pmatrix}^{-1}=\begin{pmatrix} \Lambda_{aa}&\Lambda_{ab} \\ \Lambda_{ba}&\Lambda_{bb} \end{pmatrix}                     (2.78)

使用公式(2.76),我们有:

\Lambda_{aa}=(\Sigma_{aa}-\Sigma_{ab}\Sigma_{bb}^{-1}\Sigma_{ba})^{-1}                       (2.79)

\Lambda_{ab}=-(\Sigma_{aa}-\Sigma_{ab}\Sigma_{bb}^{-1}\Sigma_{ba})^{-1}\Sigma_{ab}\Sigma_{bb}^{-1}                         (2.80)

从这些结果中,我们可以得到条件概率分布 p(xa|xb) 的均值和协方差的表达式:

\mu_{a|b}=\mu_a+\Sigma_{aa}\Sigma_{bb}^{-1}(x_b-\mu_b)                     (2.81)

\Sigma_{a|b}=\Sigma_{aa}-\Sigma_{ab}\Sigma_{bb}^{-1}\Sigma_{ba}                            (2.82)

对比(2.73)和(2.83),看到条件概率分布 p(xa|xb) 如果使用分块精度矩阵而不是分块协方差矩阵表示,那么他的形式会更简单。注意,条件概率分布 p(xa|xb) 的均值(2.81 给出)是 x_b 的线性函数,协方差(2.82)与 x_b 入关。这是线性高斯模型的一个例子。

2.3.2 边缘高斯分布

1.如果联合分布 p(xa,xb) 是高斯分布,那么条件概率分布 p(xa|xb) 也是高斯分布:

p(x_a)=\int p(x_a,x_b)dx_b

利用二次型也可以来确定均值和方差。

联合概率的二次型可以确定条件分布,边缘分布的二次型的原因。系数也是相同。

目标是积掉x_b,只提出(2.70)里面的x_b项,然后配方:

-\frac{1}{2}x^T_b\Lambda_{bb}x_b+x^T_bm=-\frac{1}{2}(x_b-\Lambda^{-1}_{bb}m)^T\Lambda_{bb}(x_b-\Lambda^{-1}_{bb}m)+\frac{1}{2}m^T\Lambda^{-1}_{bb}m                     (2.84)

其中,我们定义了:

m=\Lambda_{bb}\mu_b-\Lambda_{ba}(x_a-\mu_a)                      (2.85)

代入(2.83),然后先只看有x_b项,得到未归一化的高斯形式与均值无关:

\int exp\left \{ -\frac{1}{2}(x_b-\Lambda^{-1}_{bb}m)^T\Lambda_{bb}(x_b-\Lambda^{-1}_{bb}m) \right \}dx_b                    (2.86)

x_b 就积分积掉了,再看剩余的第二项,与(2.70)中 x_a 相关的集合,写出: 

\frac{1}{2}\left[\Lambda_{bb}\mu_b - \Lambda_{ba}(x_a - \mu_a)\right]^T\Lambda_{bb}^{-1}\left[\Lambda_{bb}\mu_b - \Lambda_{ba}(x_a - \mu_a)\right] -\frac{1}{2}x_a^T\Lambda_{aa}x_a + x_a^T(\Lambda_{aa}\mu_a + \Lambda_{ab}\mu_b) + const= -\frac{1}{2}x_a^T(\Lambda_{aa} - \Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})x_a + x_a^T(\Lambda_{aa} - \Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})^{-1}\mu_a + const                           (2.87)

其中,”常数“表示与x_a无关的量。

与(2.71)比较写出均值和协方差:

\Sigma_a = (\Lambda_{aa} - \Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})^{-1}                                  (2.88)

\Sigma_a(\Lambda_{aa} - \Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})\mu_a = \mu_a                             (2.89)p(x_a) = \mathcal{N}(x_a|\mu_a, \Sigma_{aa})

再将精度矩阵换回协方差矩阵:

\mathbb{E}\left[\boldsymbol{x}_{a}\right] =\boldsymbol{\mu}_{a}                                   (2.92)

cov\left[\boldsymbol{x}_{a}\right] =\Sigma_{aa}                              (2.93)

2.关于分块高斯的边缘分布和条件分布的结果可以总结如下:

对于联合高斯分布 N(x|μ,Σ),ΛΣ1 ,如果拆成两块。

条件分布:

 p(x_a|x_b) = \mathcal{N}(x|\mu_{a|b}, \Lambda_{aa}^{-1})                     (2.96)

\mu_{a|b} = \mu_a - \Lambda_{aa}^{-1}\Lambda_{ab}(x_a - \mu_b)                       (2.97)

边缘分布:

p(x_a) = \mathcal{N}(x_a|\mu_a, \Sigma_{aa})                                   (2.98)

3.图2.9展示涉及到两个变量的多元高斯分布的条件概率分布和边缘概率分布:

2.3.3 高斯变量的贝叶斯定理

1.假设 给定 高斯边缘分布和均值 是关于x的线性函数且方差与 x 无关的高斯条件分布 p(y|x)。这是线性高斯模型(linear Gaussian model)的一个例子。

2.把边缘和条件分布记为:

p(\boldsymbol{x})=\mathcal{N}\left(\boldsymbol{x} \mid \boldsymbol{\mu}, \boldsymbol{\Lambda}^{-1}\right)                                   (2.99)       

p(\boldsymbol{y} \mid \boldsymbol{x})=\mathcal{N}\left(\boldsymbol{y} \mid \boldsymbol{A} \boldsymbol{x}+\boldsymbol{b}, \boldsymbol{L}^{-1}\right)                               (2.100)

其中,μ,A 和 b 是控制均值的参数,Λ 和 L 是精度矩阵。如果 x 的维度为M,y的维度为D,那么矩阵 A 的大小为 D×M.

3.首先求 x,y 的联合分布:

z=\begin{pmatrix} x\\ y \end{pmatrix}                           (2.101)

求其对数:

\ln p(z) = \ln p(x) + \ln p(y|x) = -\frac{1}{2}(x - \mu)^T\Lambda(x-\mu) -\frac{1}{2}(y-Ax-b)^TL(y-Ax-b) + const

常数是与x,y无关的项。这是z的分量的二次函数-》p(x)是一个高斯函数。

4.为了计算高斯分布的精度,看二阶项:

12xT(Λ+ATLA)x12yTLy+12yTLAx+12xTATLy=12(xy)T(Λ+ATLAATLLAL)(xy)=12zTRz                         (2.103)

R就是精度矩阵:

R=\left(\begin{array}{cc} \boldsymbol{\Lambda}+\boldsymbol{A}^{T} \boldsymbol{L} \boldsymbol{A} & -\boldsymbol{A}^{T} \boldsymbol{L} \\ -\boldsymbol{L} \boldsymbol{A} & \boldsymbol{L} \end{array}\right)                            (2.104)

通过取精度矩阵的逆矩阵,得到协方差矩阵:

cov[z] = R^{-1} = \left( \begin{array}{cc} \Lambda^{-1} & \Lambda^{-1}A^T \\ A\Lambda^{-1} & L^{-1} + A\Lambda^{-1}A^T \end{array} \right)                                 (2.105)

用(2.102)的一阶项计算 z 的均值,先找到一阶项:

x^T\Lambda\mu - x^TA^TLb + y^TLb = \left( \begin{array}{c} x \\ y \end{array} \right)^T \left( \begin{array}{c} \Lambda\mu - A^TLb \\ Lb \end{array} \right)                      (2.106)

跟(2.71)对比求出均值表达式:

\mathbb{E}[z] = R^{-1} \left( \begin{array}{c} \Lambda\mu - A^TLb \\ Lb \end{array} \right)                       (2.107)

     (2.71)

用(2.106)带入计算结果:

\mathbb{E}[z] = \left( \begin{array}{c} \mu \\ A\mu + b \end{array} \right)                     (2.108)

计算边缘分布 y 的表达式。直接利用(2.92)和(2.93)就可得到结果:

\mathbb{E}[y] = A\mu + b                             (2.109)

cov[y] = L^{-1} + A\Lambda^{-1}A^T                           (2.110)

5.当 \mathbf{A}=\textbf{I} ,均值就是两个之和(是均值为 μ 和 b 的两个高斯分布之和),方差也是两个之和

6.最后,求 p(x|y) ,用(2.73)和(2.75)来对比(2.105)和(2.108)得到方差和均值:

\mathbb{E}[\boldsymbol{x} \mid \boldsymbol{y}]=\left(\boldsymbol{\Lambda}+\boldsymbol{A}^{T} \boldsymbol{L} \boldsymbol{A}\right)^{-1}\left\{\boldsymbol{A}^{T} \boldsymbol{L}(\boldsymbol{y}-\boldsymbol{b})+\boldsymbol{\Lambda} \boldsymbol{\mu}\right\}                        (2.111)

\operatorname{cov}[\boldsymbol{x} \mid \boldsymbol{y}]=\left(\boldsymbol{\Lambda}+\boldsymbol{A}^{T} \boldsymbol{L} \boldsymbol{A}\right)^{-1}                             (2.112) 

7.总结:

对于 x 的边缘高斯分布 和 y关于x的条件高斯分布:

p(x) = \mathcal{N}(x|\mu,\Lambda^{-1})                          (2.113)

p(y|x) = \mathcal{N}(y|Ax + b,L^{-1})                          (2.114)

那么 y 的边缘分布和 x关于y的条件高斯分布为:

p(y) = \mathcal{N}(y|A\mu + b,L^{-1} + A\Lambda^{-1}A^T)                           (2.115)

p(x|y) = \mathcal{N}(x|\Sigma\left\{A^TL(y-b) + \Lambda\mu \right\},\Sigma)                        (2.116)

其中:

\Sigma = (\Lambda + A^TLA)^{-1}                                  (2.117)

2.3.4 高斯分布的最大似然估计

1.准备:给定一个数据集 X=(x1,...,xN)T ,使用最大似然法估计分布的参数。对数似然函数为:

\ln p(X|\mu, \Sigma) = -\frac{ND}{2}\ln(2\pi)-\frac{N}{2}\ln |\Sigma| - \frac{1}{2}\sum\limits_{n=1}^{N}(x_n - \mu)^T\Sigma^{-1}(x_n - \mu)                      (2.118)

整理一下,最大似然只依赖于数据集的两个量,叫充分统计量:

\sum\limits_{n=1}^Nx_n\: \: ,\: \: \sum\limits_{n=1}^Nx_nx_n^T                      (2.119)

对 μ 求导(C.19):

\frac{\partial}{\partial\mu}\ln p(X|\mu,\Sigma) = \sum\limits_{n=1}^N\Sigma^{-1}(x_n - \mu)                       (2.120)

导数为0,得到均值的最大似然估计:

\mu_{ML} = \frac{1}{N}\sum\limits_{n=1}^Nx_n                     (2.121)

我们还可以计算得到方差:

\Sigma_{ML} = \frac{1}{N}\sum\limits_{n=1}^N(x_n - \mu_{ML})(x_n - \mu_{ML})^T                          (2.122)

2.如果我们估计真实概率分布,可以得到有偏的结果。协方差期望小于真实值:

\mathbb{E}[\mu_{ML}] =\mu                             (2.123)

\mathbb{E}[\Sigma_{ML}] = \frac{N - 1}{N}\Sigma                            (2.124)

所以需要补正:

\widetilde{\Sigma} = \frac{1}{N-1}\sum\limits_{n=1}^N(x_n - \mu_{ML})(x_n - \mu_{ML})^T                   (2.125)

2.3.5 顺序估计

1.顺序的方法允许每次处理一个数据点,整合进模型,处理完就丢掉。

2.考虑最大似然估计:

\mu_{ML} = \frac{1}{N}\sum\limits_{n=1}^Nx_n                            (2.121)

把第 N 个观察量的估计记作 μML(N) ,就可以写成:

μML(N)=1Nn=1Nxn =1NxN+1Nn=1N1xn =1NxN+N1NμML(N1)=μML(N1)+1N(xNμML(N1))                           (2.126)

就可以看得到结果了。随着N增加,修正量的影响也在变小。

3.推广到通用层面: Robbins-Monro算法:

考虑一对有联合分布 p(z,θ) 控制的随机变量 θ,zθ上的z的条件期望由 由确定函数f(θ) 给出:

f(\theta) \equiv \mathbb{E}[z|\theta] = \int zp(z|\theta) dz                        (2.127)

称之为回归函数。我们假定的目标时找到 f(θ)=0 的根 θ

如果有大量数据 z,θ ,我们可以直接建模,然后估计根的值。但我们一次只有一个 z 观测值,我们需要用顺序估计求根 θ。也就是 Robbins-Monro算法。

4.首先假定z的条件方差是有限的:

\mathbb{E}[(z-f)^2|\theta] < \infty                            (2.128)

假设:当θ>θf(θ)>0;当θ<θf(θ)<0。跟图(2.10)画的一样。

那么根的顺序估计就是:

\theta^{(N)} = \theta^{(N-1)} + a_{N-1}z(\theta^{(N-1)})                       (2.129)

其中 z(θ(N)) 是当θθ(N)时 z 的观测值。系数aN表示一个满足下列条件的正数序列:

\lim\limits_{N \to \infty}a_N = 0                                  (2.130)

\sum\limits_{N=1}^\infty a_N = \infty                                  (2.131)

\sum\limits_{N=1}^\infty a_N^2 < \infty                                  (2.132)

5.(2.129)以概率1收敛于根。(2.130)保证修正越来越小,(2.131)保证不会收敛到不根的值(阻止太快收束),(2.132)保证累计噪声是有限的(抑制noise发散),会收敛。

6.我们来应用,解决一般的顺序最大似然。根据定义,最大似然解θML 是对数似然函数的驻点。因此满足:

\left.\frac{\partial}{\partial \theta}\left\{\frac{1}{N} \sum_{n=1}^{N}-\ln p\left(x_{n} \mid \theta\right)\right\}\right|_{\theta_{M L}}=0                                  (2.133)

交换求导与求和顺序,且令极限 N 得到:

\lim\limits_{N \to \infty}\frac{1}{N}\sum\limits_{n=1}^N\frac{\partial}{\partial\theta}\ln p(x_n|\theta) = \mathbb{E}_x\left[\frac{\partial}{\partial\theta}\ln p(x_n|\theta)\right]                               (2.134)

最大似然的解就是回归函数的根。

7.用Robbins-Monro算法:

\theta^{(N)} = \theta^{(N-1)} + a_{N-1}\frac{\partial}{\partial\theta^{(N-1)}}\ln p(x_N|\theta^{(N-1)})                     (2.135)

 将参数θ(N)是高斯分布均值 μML(N) 替换。有:

z = \frac{\partial}{\partial\mu_{ML}}\ln p(x|\mu_{ML}, \sigma^2) = \frac{1}{\sigma^2}(x-\mu_{ML})                        (2.136)

因此 z 是均值为 μμML 的高斯分布,如图2.11展示:

8.把式(2.136)代入式(2.135)得到具有参数 aN=σ2 的一元变量形式的(2.126)。虽然我们只讨论了一元变量的情形,同样的技术,以及式(2.130)-(2.132)给出的关于系数 aN 的限制,同样适用于多元变量的情形。

2.3.6 高斯分布的贝叶斯推断

1.我们通过最大似然,可以求均值和方差,现在通过贝叶斯方法引入他们的先验。

2.首先,看一个一元高斯分布,方差是已知的。我们希望通过N次观测,推断出均值 μ 。似然:

p(\mathbf{x} \mid \mu)=\prod_{n=1}^{N} p\left(x_{n} \mid \mu\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{\frac{N}{2}}} \exp \left\{-\frac{1}{2 \sigma^{2}} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\}                      (2.137)

似然是一个 μ 的二次型,那我们把先验p(μ)也先择高斯分布,他就是似然的共轭分布,从而后验就是两个μ的二次型的乘积,也是高斯。令先验:

p(\mu) = \mathcal{N}(\mu|\mu_0, \sigma_0^2)                       (2.138)

且后验分布由:

p(\mu|X) \propto p(X|\mu)p(\mu)                      (2.139)    

给出。通过简单的配出指数中二次项的操作,可以得到的后验分布为:

p(\mu|X) = \mathcal{N}(\mu|\mu_N, \sigma_N^2)                         (2.140)

其中:

\mu_N = \frac{\sigma^2}{N\sigma_0^2+\sigma^2}\mu_0 + \frac{N\sigma_0^2}{N\sigma_0^2+\sigma^2}\mu_{ML}                                   (2.141)

\frac{1}{\sigma_N^2} = \frac{1}{\sigma_0^2} + \frac{N}{\sigma^2}                                (2.142)

其中μMLμ的最大似然解,由样本均值给出:

\mu_{ML} = \frac{1}{N}\sum\limits_{n=1}^Nx_n                               (2.143)

3.观察有几个结论:

  • (2.141):后验的均值是先验μ0和似然μML的折中。(2.20推导的时候也有这一点)如果N=0,就变成先验;N趋近无穷大,变成似然。
  • (2.142):精度是可以叠加的。每个观测精度之和+先验精度就是后验精度。N趋近于无穷大,后验精度趋近于零,在最大似然附近变成尖峰。
  • (2.143):当数据点无穷大,最大似然可以精确地由贝叶斯公式回复(μN=μML)(通过后验可以计算出来)。
  • 对于有限的N,如果σ0,先验的方差无穷大,(2.141)后验均值就是最大似然,(2.142)方差变为σN2=σ2/N

4.上节顺序估计讲了最大似然问题可以转化为顺序更新问题:N个数据点的均值:N-1个数据点的均值和一个数据点xN的贡献

这里我们看后验分布可以写成:

p(\mu|D) \propto \left[p(\mu)\prod\limits_{n=1}^{N-1}p(x_n|\mu)\right]p(x_N|\mu)                                (2.144)

方括号里的是观测N-1个数据点后的后验分布(忽略归一化系数)可以被看作一个先验分布

5,假设均值是已知的,推断方差。同样选择先验是共轭的。定义精度λ1/σ2进行计算是最方便的。

关于λ的似然函数为:

p(\mathbf{x} \mid \lambda)=\prod_{n=1}^{N} \mathcal{N}\left(x_{n} \mid \mu, \lambda^{-1}\right) \propto \lambda^{\frac{N}{2}} \exp \left\{-\frac{\lambda}{2} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\}                           (2.145)

因此,对应的共轭先验正比于λ的幂指数和λ的线性函数的指数。这就是Gamma分布,定义为:

Gam(\lambda|a,b) = \frac{1}{\Gamma(a)}b^a\lambda^{a-1}exp(-b\lambda)                          (2.146)

其中 Γ(x)0ux1eudu 是归一化系数。如果a>0那么gamma分布积分是有穷的;如果a1,那么分布本身是有穷的。图2.13展示了不同的a,b 的情况下分布。

归一化:

6.Gamma分布的均值和方差为:

\mathbb{E}[\lambda] =\frac{a}{b}                             (2.147)

var[\lambda] = \frac{a}{b^2}                            (2.148)

7.然后假设先验为Gam(λ|a0,b0),如果乘以似然函数(2.145),那么就得到后验分布:

p(\lambda \mid \mathbf{x}) \propto \lambda^{a_{0}-1} \lambda^{\frac{N}{2}} \exp \left\{-b_{0} \lambda-\frac{\lambda}{2} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\}                         (2.149)

整理一下,看成Gam(λ|aN,bN)的Gamma分布,其中:

a_N = a_0 + \frac{N}{2}                        (2.150)

b_N = b_0 + \frac{1}{2}\sum\limits_{n=1}^N(x_n - \mu)^2 = b_0 + \frac{N}{2}\sigma_{ML}^2                        (2.151)

其中σML2是对方差的最大似然估计。

8.观察有几个结论:

  • (2.150):N个数据点的效果是使a增加了N/2。因此我们可以把先验分布的参数a0看成2a0个“有效”先验观测。
  • (2.151):N个数据点为参数b贡献了NσML2/2其中σML2是方差,所以把先验中的参数b0解释为:2a0个方差为2b0/(2a0)=b0/a0“有效”的先验观测的效果。

9.回忆一下,我们在Dirichlet先验中做过类似的有效观测数的解释。这些分布是指数族的例子,我们将会看到,把共轭先验解释为有效的虚拟数据点是指数族分布的一种通用方法。

10.我们可以不使用精度进行计算,而是考虑方差本身。这种情况下共轭先验被称为 逆Gamma分布。但是我们不会详细地讨论这个分布,因为我们发现使用精度来计算更加方便。

11.现在,假设均值和精度都是未知的。为了找到共轭先验,考虑似然函数对μ,λ的依赖:

p(\mathbf{x} \mid \mu, \lambda)=\prod_{n=1}^{N}\left(\frac{\lambda}{2 \pi}\right)^{\frac{1}{2}} \exp \left\{-\frac{\lambda}{2}\left(x_{n}-\mu\right)^{2}\right\} \\ \propto\left[\lambda^{\frac{1}{2}} \exp \left(-\frac{\lambda \mu^{2}}{2}\right)\right]^{N} \exp \left\{\lambda \mu \sum_{n=1}^{N} x_{n}-\frac{\lambda}{2} \sum_{n=1}^{N} x_{n}^{2}\right\}                        (2.152)

现在,我们在想找到一个对于 μ,λ的依赖与似然函数有着相同的函数形式的先验分布p(μ,λ)因此,假设形式:

p(\mu, \lambda) \propto\left[\lambda^{\frac{1}{2}} \exp \left(-\frac{\lambda \mu^{2}}{2}\right)\right]^{\beta} \exp \{c \lambda \mu-d \lambda\} \\ =\exp \left\{-\frac{\beta \lambda}{2}\left(\mu-\frac{c}{\beta}\right)^{2}\right\} \lambda^{\frac{\beta}{2}} \exp \left\{-\left(d-\frac{c^{2}}{2 \beta}\right) \lambda\right\}                             (2.153)

其中,c,d,β是常数,由于总有p(μ,λ)=p(μ|λ)p(λ),我们可以通过观察找到p(μ|λ),p(λ)。特别的,p(μ|λ)是一个精度为关于λ的线性函数的高斯分布,p(λ)是一个Gamma分布时,得到的标准化的先验形式为:

p(\mu,\lambda) = \mathcal{N}(\mu|\mu_0,(\beta\lambda)^{-1})Gam(\lambda|a,b)                         (2.154)

其中,我们的新常数为μ0=c/β,a=1+β/2,b=dc2/2β(对比就可以得到)。式(2.154)的分布被称为正太-gamma(normal-gamma)或高斯-gamma(Gaussian-gamma)分布,并在图2.14中展示。

注意,这不是两个独立的高斯和gamma分布的乘积。因为μ的精度是λ的线性函数。会互相影响。

12.对于D维向量x的多元高斯分布N(x|μ,Λ1),假设精度已知,那么均值μ共轭先验还是高斯分布。对于已知的均值,未知的精度矩阵Λ,共轭先验是Wishart分布:

\mathcal{W}(\Lambda|W, v) = B|\Lambda|^{(v-D-1)/2}exp\left(-\frac{1}{2}Tr(W^{-1}\Lambda)\right)                     (2.155)

其中v是分布的自由度,WD×D的伸缩矩阵,TR()˙记为迹。标准化常量B为:

B(W,v) = |W|^{-v/2}\left(2^{vD/2}\pi^{D(D-1)/4}\prod\limits_{i=1}^D\Gamma\left(\frac{v+1-i}{2}\right)\right)^{-1}                       (2.156)

同样的,用协方差矩阵本身(而不是精度)定义的先验分布也可行的,这会推导出逆Wishart分布,但是我们不会详细讨论这一点。如果均值和精度同时未知,那么,和一元变量类似的推理得到共轭先验:

p(\mu,\Lambda|\mu_0,\beta,W,v) = \mathcal{N}(\mu|\mu_0,(\beta\Lambda)^{-1})\mathcal{W}(\Lambda|W,v)                       (2.157)

这被称为正态-Wishart分布或高斯-Wishart分布。

2.3.7 学生t分布

1.我们已经证明高斯分布的精度的共轭先验是gamma分布。如果把一元高斯和Gamma先验结合一起并积分掉精度,得到的边缘分布形式:

p(x \mid \mu, a, b) =\int_{0}^{\infty} \mathcal{N}\left(x \mid \mu, \tau^{-1}\right) \operatorname{Gam}(\tau \mid a, b) \mathrm{d} \tau \\ =\int_{0}^{\infty} \frac{b^{a} e^{(-b \tau)} \tau^{a-1}}{\Gamma(a)}\left(\frac{\tau}{2 \pi}\right)^{\frac{1}{2}} \exp \left\{-\frac{\tau}{2}(x-\mu)^{2}\right\} \mathrm{d} \tau \\ =\frac{b^{a}}{\Gamma(a)}\left(\frac{1}{2 \pi}\right)^{\frac{1}{2}}\left[b+\frac{(x-\mu)^{2}}{2}\right]^{-a-\frac{1}{2}} \Gamma\left(a+\frac{1}{2}\right)                       (2.158)

其中我们使用了变量替换z=τ[b+(xμ)2/2]

2.为了方便,我们定义了新变量v=2a,λ=a/b,那么分布p(x|μ,a,b)就可以写成:

St(x|\mu,\lambda,v) = \frac{\Gamma(v/2+1/2)}{\Gamma(v/2)}\left(\frac{\lambda}{\pi v}\right)^{1/2}\left[1+\frac{\lambda(x-\mu)^2}{v}\right]^{-v/2-1/2}                  (2.159)

这就是学生t分布。参数\lambda有时被称为t分布的精度,虽然它并不总是等于方差的逆。参数v表示自由度,图2.15展示了它的影响。

  • v=1,t分布退化成柯西分布;
  • v,t分布变成高斯分布

3.(2.158)学生t分布是由无穷多个相同均值不同精度高斯分布相加而成的。(Gamma分布积分后的部分是归一化系数),高斯混合。结果是一个通常有着比高斯分布更长的“尾巴”的概率分布,正如图2.15展示的。

4.这给出了t分布的一个叫做鲁棒性(robustness)的重要性质,这表示对于数据集里存在几个离群点(outlier),t分布不会像高斯分布那样敏感。图2.16展示了t分布的鲁棒性,并对比了高斯分布和t分布的最大似然解

5.t分布的最大似然可以用EM算法求解。如果数据有误标记或者本身就是长尾概率的时候,就会派上用场(比一般的高斯分布好)。

6.如果我们回到式(2.158)并代入参数 v=2a,λ=a/b,η=τb/a ,得到t分布可以写成:

St(x|\mu,\lambda,v) = \int\limits_0^\infty\mathcal{N}(x|\mu,(\eta\lambda)^{-1})Gam(\eta|v/2,v/2)d\eta                        (2.160)

7.可以把它推广到多元高斯N(x|μ,Λ)来得到对应的多元t分布:

St(x|\mu,\Lambda,v) = \int\limits_0^\infty\mathcal{N}(x|\mu,(\eta\Lambda)^{-1})Gam(\eta|v/2,v/2)d\eta                      (2.161)

使用与一元变量相同的方法,求解这个积分,得:

St(x|\mu,\Lambda,v) = \frac{\Gamma(D/2+v/2)}{\Gamma(v/2)}\frac{|\Lambda|^{1/2}}{(\pi v)^{D/2}}\left[1+\frac{\Delta^2}{v}\right]^{-D/2-v/2}                    (2.162)

其中D是向量x得维数,Δ2是由:

\Delta^2 = (x-\mu)^T\Lambda(x-\mu)                    (2.163)

定义得马氏距离(Mahalanobis distance)的平方。

这个形式的多元t分布满足下面这些性质:

\mathbb{E}[x] = \mu, \, \, \, \, \, \, \, \text{if } v > 1                      (2.164)

cov[x] = \frac{v}{(v-2)}\Lambda^{-1},\, \, \, \, \, \, \, \, \text{if } v > 2                      (2.165)

mode[x] = \mu                     (2.166)

对应地,可以得到一元变量的结果。

2.3.8 周期变量

1.实际生活中有周期变量。比如风向或者日历,按照年、天、小时等周期循环。用极坐标建模0θ<2π就很方便。

2.我们可能选取一个方向作为原点,然后应用传统的概率分布(例如高斯分布)来处理。但是,这种方法得出的结果会强烈依赖于原点得选择。例如,假设我们有两个观测,分别位于θ1=1,θ2=359,然后我们使用标准一元高斯分布建模。

  • 如果把原点选择在0,那么这个数据集的样本均值为180,标准差在179
  • 如果把原点选择在180,那么均值为0,标准差为1

(不好的原因:均值方差大小依赖原点的选择)

2.让我们考虑估计周期观测集合D=θ1,...θN均值问题。从现在开始,我们用θ表示弧度。我们已经看到,简单的平均值(θ1+...+θN)/N非常依赖于坐标系的选择。为了给均值找到一个不变的度量,我们发现观测可以被看做单位圆上的点。因此,可以用二维单位向量来x1,...xN其中xn=1,n=1,...,N来描述,如图2.17所示。

2.3.9 高斯混合模型

1.实际数据直接高斯建模有局限性。如图2.21忠实泉的问题:

横轴持续喷发分钟,纵轴下次喷发间隔时间。单一高斯不好,多个高斯线性叠加更好。多个基本概率分布线性组合的方式叫混合分布。图2.22三合一:

足够多的高斯组合可以拟合几乎任意连续概率密度函数,比方说k个:

p(x) = \sum\limits_{k=1}^K \pi_k \mathcal{N}(x|\mu_k, \Sigma_k)                      (2.188)

这被叫做混合高斯。如图2.23,混合模型还有其他线性组合在9.3.3有伯努利分布的混合:

2.这里πk被称为混合系数。如果我们同时在两边对x进行积分,(注意p(x)和单独的高斯组件都是标准化的),得到:

\sum\limits_{k=1}^K \pi_k = 1                         (2.189)

且,p(x)0,N(x|μk,Σk)0这些条件隐含的对于任意k都有πk0。结合条件(2.189)得到:

0 \leq \pi_k \leq 1                         (2.190)

因此,我们看到混合系数满足成为概率的要求。

3.根据加法和乘法规则,得到边缘密度为:

p(x) = \sum\limits_{k=1}^Kp(k)p(x|k)                       (2.191)

其中,把πk=p(k)看成使用第k个组件的先验概率,把密度N(x|μk,Σk)=p(x|k)看成以k为条件的x的概率,这就等于式(2.188).

4.后验概率p(k|x)有时也被称为责任(responsibilities),起着很重要的作用。根据贝叶斯定理,后验概率:

\gamma_k(x) \equiv p(k|x) \ = \frac{p(k)p(x|k)}{\sum_lp(l)p(x|l)} \ = \frac{\pi_k\mathcal{N}(x|\mu_k, \Sigma_k)}{\sum_l\pi_l\mathcal{N}(x|\mu_l, \Sigma_l)}                       (2.192)

将在第9章比较详细地讨论混合分布的概率意义。(分量k对于“解释”观测值 x 的“责任”)

5.控制混合高斯分布的参数π,μ,Σ,被记为:

ππ1,...,πK,μμ1,...,μK,ΣΣ1,...,ΣK。确定这些参数值的一种方法是使用最大似然。根据公式(2.188)得到对数似然函数:

p(\boldsymbol{X} \mid \boldsymbol{\pi}, \boldsymbol{\mu}, \boldsymbol{\Sigma})=\sum_{n=1}^{N} \ln \left\{\sum_{k=1}^{K} \pi_{k} \mathcal{N}\left(\boldsymbol{x}_{n} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right)\right\}                           (2.193)

其中X=x1,...,xN,因为对数中存在一个根据k的求和公式,这比一元高斯分布复杂得多。这导致参数的最大似然解不再是一个封闭形式的解析解。最大化这个似然函数的一种方法是使用迭代数值优化法(梯度下降,牛顿法之类的吧)。另一种方法是使用一种被称为期望最大化(Em算法)的强大的框架,将在第9章详细讨论。

2.4 指数分布

1.到目前学到的各种概率分布(除了高斯混合)都是指数族分布下的特殊例子,有共同性质。比如:

给定参数ηx上的指数族分布是具有:

p(x|\eta) = h(x)g(\eta)exp\{\eta^Tu(x)\}                         (2.194)

形式的概率分布的集合。其中x可以是标量也可以是向量,可以是连续的也可以是离散的。η是分布的自然参数(natural parameters),u(x)是关于x的某个函数。函数g(η)可以解释为是为了保证分布标准化的系数,且满足:

g(\eta)\int h(x)exp\{\eta^Tu(x)\}dx = 1                   (2.195)

其中,对于离散变量积分就变成求和。

2.首先,给出一些本章之前讨论的一些分布,然后证明这些分布确实是 指数族分布。首先考虑伯努利分布:

p(x|\mu) = Bern(x|\mu) = \mu^x(1-\mu)^{1-x}                           (2.196)

把右侧表示成对数的指数形式,得到:(合并x项)

p(x \mid \mu) =\exp \{x \ln \mu+(1-x) \ln (1-\mu)\} \\ =(1-\mu) \exp \left\{\ln \left(\frac{\mu}{1-\mu}\right) x\right\}                                 (2.197)

与公式(2.194)对照,得到:

\eta = \ln\left(\frac{\mu}{1-\mu}\right)                                (2.198)

然后就可以解出μ=σ(η)(反过来表示),其中:

\sigma (\eta) = \frac{1}{1+exp(-\eta)}                               (2.199)

这就是logistic sigmoid 函数。因此可以把伯努利分布写成式(2.194)的标准形式:(上下同乘exp(x))

p(x|\eta) = \sigma(-\eta)exp(\eta x)                          (2.200)

其中使用了可以从式(2.199)中很容易证明的1σ(η)=σ(η),对比公式(2.194)得到:

u(x) = x                       (2.201)

h(x) = 1                       (2.202)

g(\eta) = \sigma(-\eta)                           (2.202)  

3.接下来,考虑单观测值x的多项式分布:

p(\boldsymbol{x} \mid \boldsymbol{\mu})=\prod_{k=1}^{M} \mu_{k}^{x_{k}}=\exp \left\{\sum_{k=1}^{M} x_{k} \ln \mu_{k}\right\}                                (2.204)

其中x=(x1,...,xN)T同样的,可以写成式(2.194)的标准形式:

p(x|\eta) = exp(\eta^Tx)                                (2.205)

其中ηk=lnμk,且定义了η=(η1,...,ηM)T。同样,对比式(2.194)得到:

u(x) = x                        (2.206)

h(x) = 1                        (2.207)

g(\eta) = 1                        (2.208)

4.注意,因为参数μk要满足(一个事件有k个状态,表示对应状态出现的概率):

\sum\limits_{k=1}^M\mu_k = 1                              (2.209)

所以给定任意M1个参数μk剩下的参数就固定了,因此参数ηk不是相互独立的。在某些情况下,去掉这个限制,只用M1个参数来表示分布会比较方便。可以使用式(2.209)中的关系,用μk,k=1,...,M1来表示最后的μM,这样就只剩下M1个参数了。注意,剩余的参数仍然要满足:

0 \leq \mu_k \leq 1, \sum\limits_{k=1}^{M-1}\mu_k \leq 1                               (2.210)

使用式(2.209)的约束,这种表达方式下多项式分布变成:

\exp \left\{\sum_{k=1}^{M} x_{k} \ln \mu_{k}\right\} \\ =\exp \left\{\sum_{k=1}^{M-1} x_{k} \ln \mu_{k}+\left(1-\sum_{k=1}^{M-1} x_{k}\right) \ln \left(1-\sum_{k=1}^{M-1} \mu_{k}\right)\right\} \\ =\exp \left\{\sum_{k=1}^{M-1} x_{k} \ln \left(\frac{\mu_{k}}{1-\sum_{j=1}^{M-1}\mu_j}\right)+\ln \left(1-\sum_{k=1}^{M-1} \mu_{k}\right)\right\}                          (2.211)

现在,确定:

\ln\left(\frac{\mu_k}{1-\sum_j\mu_j}\right)=\eta_k                                  (2.212)

首先两边对k求和,然后重新整理,回带,就可以解出μk:

 \mu_k = \frac{exp(\eta_k)}{1+\sum_jexp(\eta_j)}                               (2.213)

 

这被称为softmax函数,或标准化指数(normalized exponential)。

5.在这种表达方式下,多项式分布具有:

p(x|\eta) = \left(1 + \sum\limits_{k=1}^{M-1}exp(\eta_k)\right)^{-1} exp(\eta^Tx)                               (2.214)

这是具有参数向量η=(η1,...,ηM1)T的指数族的标准形式。其中:

u(x) = x                        (2.215)

h(x) = 1                        (2.216)

g(\eta) = \left(1+\sum\limits_{k=1}^{M-1}exp(\eta_k)\right)^{-1}                       (2.217)

6.最后,考察高斯分布。对于一元高斯有:

p\left(x \mid \mu, \sigma^{2}\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{\frac{1}{2}}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\} \\ =\frac{1}{\left(2 \pi \sigma^{2}\right)^{\frac{1}{2}}} \exp \left\{-\frac{1}{2 \sigma^{2}} x^{2}+\frac{\mu}{\sigma^{2}} x-\frac{1}{2 \sigma^{2}} \mu^{2}\right\}                           (2.218 , 2.219)

经过一些简单的重排列之后,可以转化为式(2.194)给出的标准指数族分布的形式,其中:

\eta = \left( \begin{array}{c} \mu/\sigma^2 \\ -1/2\sigma^2 \end{array} \right)                           (2.220)

u(x) = \left( \begin{array}{c} x \\ x^2 \end{array} \right)                              (2.221)

h(x) = (2\pi)^{-1/2}                             (2.222)

g(\eta) = (-2\eta_2)^{1/2}exp\left(\frac{\eta_1^2}{4\eta_2}\right)                             (2.223)

2.4.1 最大似然与充分统计量

1.现在对于最大似然,首先标准形式是:

p(x|\eta) = h(x)g(\eta)exp\{\eta^Tu(x)\}                               (2.194)

我们对(2.195)两边取梯度,有:

g(\eta)\int h(x)exp\{\eta^Tu(x)\}dx = 1                              (2.195)

\nabla g(\eta)\int h(x)exp\{\eta^Tu(x)\}dx \ + g(\eta)\int h(x)exp\{\eta^Tu(x)\}u(x)dx = 0                         (2.224)

整理有:

-\frac{1}{g(\eta)}\nabla g(\eta) = g(\eta)\int h(x)exp\{\eta^Tu(x)\}u(x)dx = \mathbb{E}[u(x)]                             (2.225)

其中使用了式(2.195).于是得到:

-\nabla\ln g(\eta) = \mathbb{E}[u(x)]                          (2.226)

注意,u(x)的协方差可以由g(η)的二阶导数来表示。对于高阶矩以此类推。因此,如果一个来自指数族的分布可以被归一化(有g(η)),那么就可以通过简单的微分来找到它的矩(一阶:期望,二阶:方差)。

2.现在考虑一组独立同分布的数据X=x1,...,xn,它的似然函数为:

p(\boldsymbol{X} \mid \boldsymbol{\eta})=\left(\prod_{n=1}^{N} h\left(\boldsymbol{x}_{n}\right)\right) g(\boldsymbol{\eta})^{N} \exp \left\{\boldsymbol{\eta}^{T} \sum_{n=1}^{N} \boldsymbol{u}\left(\boldsymbol{x}_{n}\right)\right\}                         (2.227)

lnp(X|η)关于η的导数等于零,我们可以得到最大似然估计μML满足的条件(类比2.224可以计算):

-\nabla \ln g(\eta_{ML}) = \frac{1}{N}\sum\limits_{n=1}^N u(x_n)                             (2.228)

最大似然解仅仅关于nu(xn)相关,这就是充分统计量。我们不用存数据集而保存充分统计量就行。举个例子,对于伯努利分布,函数u(x)就是x,因此我们只需要存储数据点xn的和。而对于高斯分布u(x)=(x,x2)T,因此我们应该同时存储xn,xn2的和。

3.如果考虑极限N,那么式(2.228)的右手边就变成E[u(x)],并与式(2.226)比较得到在这个极限下ηML等于真实的 η 的值。实际上,这种充分性对于贝叶斯推断也成立(第八章)

2.4.2 共轭先验

1.我们已经在伯努利分布(共轭先验是beta分布)和高斯分布(均值的共轭先验是高斯,精度的共轭先验是Wishart分布   2.3.6gamma分布最后),碰到过几次共轭先验的概念。通常来说,对于给定的分布p(x|η),可以找到与似然函数共轭的先验p(η),因此,后验分布与先验有同样的函数形式。对于任意的式(2.194)的指数族成员,都有一个可以写成:

p(\eta|\boldsymbol{X},v) = f(\boldsymbol{X},v)g(\eta)^vexp\{v\eta^T\boldsymbol{X}\}                           (2.229)

其中f(x,v)是标准化系数,且g(η)和出现在式(2.194)中的是同一个函数。为了证明这实际是共轭的,让先验(2.229)乘以似然函数(2.227)来获取后验分布,忽略标准化系数,得到:

p(\boldsymbol{\eta} \mid \boldsymbol{X}, \boldsymbol{\chi}, \nu) \propto g(\boldsymbol{\eta})^{\nu+N} \exp \left\{\boldsymbol{\eta}^{T}\left(\sum_{n=1}^{N} \boldsymbol{u}\left(\boldsymbol{x}_{n}\right)+\nu \boldsymbol{\chi}\right)\right\}                                     (2.230)

这同样与先验(2.229)具有相同的函数形式,确认是共轭的。此外,参数v可以解释为先验分布中伪观测数量,给定 x 下每个伪观测都对充分统计量u(x)有贡献。

2.4.3 无信息先验

1.在一些概率推断应用中,我们可能会有能用先验分布方便的表达出来的先验知识。例如,如果先验令变量的一些值的概率为0,那么不论后续观测到什么数据,后验分布都会令这些值的概率为0。但是,在许多情形下,我们几乎不知道分布应该具有的形式。这时,我们可能需找一种被称为无信息先验(noninformative prior)的先验分布。这种先验分布的目的是尽可能的后验分布产生小的影响,这有时也被称为“让数据自己说话”。

2.如果一个有参数λ控制的分布p(x|λ)。对于先验,最简单的提出p(λ)=const是合适的先验。如果λ是有K个状态的离散变量,这相当于简单的设置每个状态的概率为1/K。然而,在连续参数的情况下,这种方法有两个潜在的困难。

  • 第一个是:如果λ的定义域域是无界的,这时关于λ的积分是发散的,所以先验分布不能被正确的标准化。这样的先验被称作非正常的(improper)。实际应用中,如果对应的后验分布是正常的(proper),即它可以正确地标准化,那么可以使用这个非正常的先验。例如,如果假设高斯分布的均值的先验为均匀分布,一旦我们观测到至少一个数据点,均值的后验就会是正常的。参考2.3.6节:

似然:

p(\mathbf{x} \mid \mu)=\prod_{n=1}^{N} p\left(x_{n} \mid \mu\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{\frac{N}{2}}} \exp \left\{-\frac{1}{2 \sigma^{2}} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\}                    (2.137)

关系:

p(\mu|X) \propto p(X|\mu)p(\mu)                      (2.139)

  • 第二个困难来自于变量的非线性改变下的概率密度变换行为,由式(1.27)给出:这里:x=g(y)

p_{y}(y)=p_{x}(x)\left|\frac{\mathrm{d} x}{\mathrm{d} y}\right|=p_{x}(g(y))\left|g^{\prime}(y)\right|                         (1.27)

如果函数h(λ)是常数,且进行变量替换λ=η2,那么h^(η)=h(η2)也会常数。但是,如果选择密度pλ(λ)等于常数,那么根据式(1.27),η的概率密度为:

p_\eta(\eta) = p_\lambda(\lambda)\Bigg\vert\frac{d\lambda}{d\eta}\Bigg\vert = p_\lambda(\eta^2)2\eta \propto \eta                            (2.231)

这时η的概率密度就不再是常数了(矛盾了)。由于似然函数p(x|λ)是关于λ的简单函数,所以这个问题不会出现在最大似然中,所以可以自由的使用任意方便的参数化方法。如果选择了常数作为先验分布,那么必须注意对参数要使用一个合适的表达法。

3.这里考虑两个无信息先验的简单例子(Berger, 1985)。首先,概率密度形式为:

p(x|\mu) = f(x-\mu)                      (2.232)

其中μ被称为位置参数(location parameter)。因为如果我们把x平移一个常数,得到x^=x+c ,那么:

p(\hat{x}|\hat{\mu}) = f(\hat{x} - \hat{\mu})                       (2.233)

其中μ^=μ+c,所以这类密度具有平移不变性。所以新变量的概率密度的形式与原变量相同,因此密度与原点的选择无关。我们想要选择一个反映这个平移不变性的先验分布,所以我们选择一个赋予区间AμB与区间AcμBc相同的概率质量的先验。这隐含:

\int_A^Bp(\mu)d\mu = \int_{A-c}^{B-c}p(\mu)d\mu = \int_A^Bp(\mu-c)d\mu                             (2.234)

而且这对于任意的A,B选择都成立,所以得到:

p(\mu - c) = p(\mu)                     (2.235)

这隐含了p(μ)是一个常数。

4.位置参数的一个例子是高斯分布的均值μ。正如我们已经看到的,这种情况下的μ的共轭先验分布是一个高斯p(μ|μ0,σ02)=N(μ|μ0,σ02),然后取极限σ02得到一个无信息先验(高斯函数变平,像均匀函数)。事实上,从式(2.141)和(2.142)可以知道,在这种极限情况下,得到的μ的后验分布中,先验的贡献消失了。

\mu_N = \frac{\sigma^2}{N\sigma_0^2+\sigma^2}\mu_0 + \frac{N\sigma_0^2}{N\sigma_0^2+\sigma^2}\mu_{ML}                       (2.141)

\frac{1}{\sigma_N^2} = \frac{1}{\sigma_0^2} + \frac{N}{\sigma^2}                              (2.142)

5.第二个例子,考虑密度形式:

p(x|\sigma) = \frac{1}{\sigma}f\left(\frac{x}{\sigma}\right)                           (2.236)

其中σ>0。注意,如果f(x)被正确的标准化,那么这是一个标准化的密度。参数σ是伸缩参数(scale parameter)。如果我们把x缩放一个常数即x^=cx,有:

p(\hat{x}|\hat{\sigma}) = \frac{1}{\hat{\sigma}}f\left(\frac{\hat{x}}{\hat{\sigma}}\right)                            (2.237)

其中σ^=cσ,这就是概率密度的伸缩不变性(scale invariance)。这个变换对应单位的变化,例如,长度x的单位从米变成了千米,我们想要选择一个反映这个伸缩不变性的先验分布。如果我们考虑区间AσB和伸缩伸缩区间A/cσB/c,对两个区间赋予相同的概率质量。得到:

\int_A^Bp(\sigma)d\sigma = \int_{A/c}^{B/c}p(\sigma)d\sigma = \int_A^Bp\left(\frac{1}{c}\sigma\right)\frac{1}{c}d\sigma                       (2.238)

因为这对于任意的A,B选择都成立,所以得到:

p(\sigma) = p\left(\frac{1}{c}\sigma\right)\frac{1}{c}                        (2.239)

得到p(σ)1/σ。由于分布在0σ 的积分是发散的,所以这是一个非正常先验。有时把缩放参数的先验分布用参数的对数的概率密度表达更方便。使用公式(1.27)的概率密度变换规则,我们看到p(lnσ)=const。因此,对于这个先验分布,在区间1σ10和区10σ10010σ10010σ100和以及区100σ1000和上具有相同的概率质量。

缩放参数的一个例子是高斯分布的标准差σ,在我们确定了位置参数μ之后。由于:

\mathcal{N}(x|\mu,\sigma^2) \propto \sigma^{-1} exp\{-(\tilde{x}/\sigma)^2\}                             (2.240)

其中x~=xμ。就如之前讨论的,使用精度λ=1/σ2会比σ方便的多。使用密度的变换规则,得到分布p(σ)1/σ对应λ上的分布形式p(λ)1/λ。我们已经知道λ的共轭先验是式(2.146)给出的gamma分布Gam(λ|a0,b0)。无信息先验在a0=b0=0的特殊情况下得到。同样的,如果检查式(2.150)和式(2.151)给出的λ的后验分布的结果,得到对于a0=b0=0,后验分布只与数据相关,而与先验分布无关。

Gam(\lambda|a,b) = \frac{1}{\Gamma(a)}b^a\lambda^{a-1}exp(-b\lambda)                               (2.146)

a_N = a_0 + \frac{N}{2}                            (2.147)

b_N = b_0 + \frac{1}{2}\sum\limits_{n=1}^N(x_n - \mu)^2 = b_0 + \frac{N}{2}\sigma_{ML}^2                                  (2.148)

2.5 非参数估计

1.一般的参数化的模型有个局限性:对于生成数据来说,可能选了一个很差的模型去拟合。比方说一个多峰数据的生成过程就很难被单峰的高斯模型来捕捉到。所以看看简单频度学家的非参数估计。

2.之前我们也有用过:图1.11说明边缘分布和条件分布

dfdf

3.图2.6 中心极限定理。均值随数据量增加的变化。

4.探索一元连续变量x下的直方图密度估计的性质。标准的直方图简单地把x划分成宽度为Δi的不同箱子,然后对落在第i个箱子中的x的观测数量ni进行计数。为了把这种计数转换成标准化的概率密度,简单地把观测数量除以观测的总数N,再除以箱子的宽度Δi,得到每个箱子的概率的值(直方图中):

p_i = \frac{n_i}{N\Delta_i}                  (2.241)

从中显然可得p(x)dx=1。这就给出了一个对于每个箱子的密度p(x)是常数的模型,通常会选择相同宽度的箱子,即Δi=Δ

5.这展示了三种不同的箱子宽度Δ的选择的情况。

  • Δ非常小的时候(最上面的图)得到的密度模型是非常尖的,有很多结构没有出现在生成数据的概率分布中。
  • Δ过大(最下面的图),那么最终的概率模型会过于平滑,结果无法扑捉绿色曲线的双峰性质。
  • Δ取一个 中等大小的值时(中间的图),可以得到最好的结果。原则上,一个直方图概率密度模型也依赖于箱子边缘位置的选择,但是这对于结果的影响通常会小于Δ的值的选择。(不是非参数估计,又有参数???)

6.优势:

  • 直方图画出,数据就可以丢弃了。(大量数据情况有利)
  • 直观显示一维和二维数据。

7.缺点:

  • 箱子边缘造成概率密度不连续性; 
  • 维数灾难。如果我们把D维空间的每一维的变量都划分到M个箱子中,那么箱子的总数为MD。这种对于D的指数放大是维度灾难的一个例子。在高维空间中,想对于局部概率密度进行有意义的估计,需要的数据量是不可接受的。

8.重要点:

  • 为了估计在某个特定位置的概率密度,需要考虑位于那个点的某个邻域内的数据点。注意,局部性的概念要求我们假设某种形式的距离度量,这里我们假设的是欧几里得距离。对于直方图,这种邻域的性质由箱子定义,且有一个自然的“平滑”参数描述局部区域的空间扩展,即这里的箱子宽度。
  • 为了获得好的结果,平滑参数的值既不能太大也不能太小。这让我们回忆起了第1章讨论过的多项式曲线拟合问题中对于模型复杂度的选择。那里是多项式的阶数M或者正则化参数α,被优化成了某些中等大小的值,既不太大也不太小。(太小采样没采集)

有了这些认识,让我们讨论密度估计的两个广泛使用的非参数化方法:核估计以及近邻估计。与简单的直方图方法相比,这两种方法能更好的处理维度放大的情况。

2.5.1 核密度估计

1.假设观测是D维空间未知概率分布p(x),希望估计。看包含x的小区域R,概率密度是:

P = \int_Rp(x)dx                            (2.242)

2.假设收集了R内部的K个数据点,服从二项分布:x落在区域R中被观测到,数量为K个的概率:

Bin(K|N,P) = \frac{N!}{K!(N-K)!}P^K(1-P)^{N-K}                         (2.243)

3.使用(2.11,2.12)(在给定数据集规模N的条件下,x=1的观测出现数量m的概率分布的期望和方差):

\mathbb{E}[m] \equiv \sum_{m=0}^{N} m \operatorname{Bin}(m \mid N, \mu)=N \mu                           (2.11)

\mathbb{E}[m] \equiv \sum_{m=0}^{N} (m-E[m])^2 \operatorname{Bin}(m \mid N, \mu)=N \mu(1-\mu)                           (2.12)

得到落在区域内部的数据点的平均比例(mean fraction)为E[K/N]=P,同时引用式(2.12)得到这个均值的方差为var[K/N]=P(1P)/N

4.对于大的N值,这个分布将会在均值附近产生尖峰(方差变小),且:

K \simeq NP                        (2.244)

但是,如果同时假定区域R足够小,使得在这个区域内的概率密度p(x)大致为常数,那么就有:

P \simeq p(x)V                    (2.245)

其中VR的体积。结合式(2.244)和(2.245)得到密度估计的形式:

p(x) = \frac{K}{NV}                      (2.246)

注意,式(2.246)的成立依赖于两个相互矛盾的假设,即区域R要足够小,使得这个区域内的概率密度近似为常数,但是也要足够大(关于密度的值),使得落在这个区域内的数据点的数量K足够让二项分布达到尖峰。(太少就没点在区域里)

5.因为p(x)概率函数和N是数据点。我们有两种思路:

  • 固定K,通过数据确定V,就是k邻近算法。
  • 固定V,通过数据确定K的值,就是核方法。

可以证明在极限N下,V随N的增加而收缩,K随N的增加而增大。最终两种方法得到的概率密度都会收敛于真实的概率密度。(Duda and Hart, 1973)。

6.首先是核方法,我们把区域R取成以想确定概率密度的点x为中心的小超立方体。为了统计落在这个区域内的数据点的数量K,定义函数:

k(\boldsymbol{u})=\left\{\begin{array}{ll} 1, & \left|u_{i}\right| \leq \frac{1}{2}, \quad i=1, \ldots, D \\ 0, & \text { Other cases } \end{array}\right.                               (2.247)

这表示一个以原点为中心的单位立方体。函数k(u)就是核函数的一个例子。从式(2.247),如果数据点xn位于以x为中心的边长为h的立方体中,那么量k((xxn)/h)等于1,否则它的值为0。位于这个立方体内的数据点的总数为:

K = \sum\limits_{n=1}^Nk\left(\frac{x-x_n}{h}\right)                            (2.248)

7.把这个表达式代入式(2.246),可以得到点x处的概率密度估计:

p(x) = \frac{1}{N}\sum\limits_{n=1}^N\frac{1}{h^D}k\left(\frac{x-x_n}{h}\right)                          (2.249)

使用函数k(u)的对称性(两点距离计算),可以重新解读这个等式为以N个数据点xn为中心的N个立方体的和,而不是解读为以x为中心的一个立方体。

8.但问题跟直方图一样,非连续性。(不是1就是0).这个是由密度估计中立方体的边界带来的。如果我们选择一个平滑的核函数,那么就可以得到一个更加光滑的模型。一个常用的选择是高斯核函数,它给出:

p(\boldsymbol{x})=\frac{1}{N} \sum_{n=1}^{N} \frac{1}{\left(2 \pi h^{2}\right)^{\frac{D}{2}}} \exp \left\{-\frac{\left\|\boldsymbol{x}-\boldsymbol{x}_{n}\right\|^{2}}{2 h^{2}}\right\}                 (2.250)

其中h表示高斯分布的标准差。这个密度模型是通过使每个数据点服从高斯,然后把它们的贡献加起来得到的,之后除以N,使得概率密度被正确的标准化。图2.25中展示了把模型(2.250)应用于之前用来说明直方图方法的数据集上的图像。

9.看到,和我们期望的一样,参数h担当平滑参数的角色,且需要在,小的h会造成模型对噪声过于敏感,而大的h会造成过度平滑间做一个权衡。同样的,对h的优化是一个模型复杂度的问题,类似于直方图密度估计中对于箱子宽度的选择,也类似于曲线拟合问题中的多项式阶数。

10.其实可以选择任何(2.249)的核函数,只要满足条件:

k(u) \geq 0             (2.251)

\int k(u)du = 1                   (2.252)

这确保了最终求得的概率分布在处处都是非负的,且积分等于1。式(2.249)给出的这类密度模型被称为核密度估计,或Parzen估计。它的一个很大的优点是:因为“训练”阶段只需要存储训练集即可,所以它不需要进行“训练”阶段的计算(只需要写个方程)。然而,这也是一个巨大的缺点,因为密度估计的计算代价随着数据集的规模线性增长(每个点都参与了计算)。

2.5.2 邻近方法

1.密度估计的核方法的一个问题是控制核宽度的参数h对于所有核都是固定的。在高数据密度区域,大的h值可能会导致过于平滑,且破坏了本应从数据中提取出的结构。但是,减小h的值可能导致数据空间中低密度区域估计的噪声(本来是连续的,采集不到点)。所以h的最优选择依赖于数据空间中的位置。这个问题可以由密度估计的近邻算法来解决。

2.因此,回到局部密度估计的一般结果(2.246),与之前固定V然后从数据中确定K的值不同,我们考虑固定K的值然后使用数据来确定合适的V值。为了达到这个目的,考虑一个以点x为中心的小球体,我们希望估计密度p(x),且允许球体的半径可以自由增加,直到它精确地包含K个数据点。概率密度p(x)的估计就由式(2.246)给出,其中V等于得到的球体的体积。这就是K近邻算法。图2.26展示了与图2.24、2.25相同的数据集下不同的K的选择。

3.我们看到现在K的值控制了光滑的程度,且与之前一样,K的最优选择既不能太大也不能太小。注意,由于对所有空间的积分是发散的,所以K近邻算法产生的模型不是真正的密度模型。(图中,特别高的值)

4.最后,将k近邻估计推广到分类问题。为此,对每个独立的类别应用K近邻估计,然后使用贝叶斯定理。

假设有类别Ck的数据点Nk个,总共N个点的数据集,即kNk=N。如果想确定新数据点x的分类,那么我们画一个以x为中心的,正好包含K个不论属于哪个类别的数据点的球体。这样,式(2.246)为每个类别提供了密度估计:

p(x|C_k) = \frac{K_k}{N_kV}                          (2.253)

同样的,无条件概率密度为:

p(x) = \frac{K}{NV}                      (2.254)

其中类别的先验是由:

p(C_k) = \frac{N_k}{N}                          (2.255)

给出。现在使用贝叶斯定理将式(2.253)、(2.254)和(2.255)结合起来,得到类别的后验概率:

p(C_k|x) = \frac{p(x|C_k)p(C_k)}{p(x)} = \frac{K_k}{K}                        (2.256)

5.如果希望误分类的概率最小,那么可以把测试点x分配给有着最大后验概率的类别,对应着最大的Kk/K。含义就是为了给新的数据点分类,我们从训练数据中选择K个最近的数据点,然后把新的数据点分配为这个集合中数量最多的点的类别。特例 K=1 ,因为简单地把测试点分类为训练数据集里距离最近的数据点的类别,所以被称为最近邻规则(nearest-neighbour rule),。图2.27展示了这些概念。

6.在图2.28中,展示了第一章中介绍的石油流数据集在不同的K值下的K近邻算法的结果。如我们期望的那样,K控制着光滑度,即小的K值会使得每个类别有许多小区域,而大的K值会产生数量较少面积较大的区域。

7.最近邻(K = 1)分类器的一个有趣的性质是在极限N的情况下,它的错误率不会超过最优分类器(即真实概率分布的分类器)可以达到的最小错误率的二倍(Cover and Hart, 1967)。(也不错,等于真实)

8.正如到目前为止讨论的那样,K近邻方法和核密度估计方法都需要存储整个训练数据,这导致计算大数据集会非常昂贵。通过一种基于树的探索结果,可以一次额外的计算来,不遍历整个数据集高效地找到(近似)近邻。尽管这样,这些非参数化方法然有很大的局限性。

9.另一方面,我们已经看到,简单的参数化模型非常受限,只能表示某一种形式的概率分布。因此我们需要寻找一种非常灵活概率密度模型,且它的复杂度可以被控制为与训练数据的规模无关。在后续章节中将会看到如何找到这种概率密度模型。

 

参考文献:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/195541
推荐阅读
相关标签
  

闽ICP备14008679号