赞
踩
10.1:
决策树分类的边界是折线【西瓜书图4.11】,且形成凸形,而
k
k
k近邻分类通常边界不清晰甚至没有边界。
10.2:
本题以
e
r
r
err
err表示【西瓜书(10.2)】中的
P
(
e
r
r
)
P(err)
P(err),贝叶斯最优分类器:
c
∗
=
arg
max
c
P
(
c
∣
x
)
c^*=\mathop{\arg\max}\limits_cP(c|\boldsymbol{x})
c∗=cargmaxP(c∣x),则有:
P
(
c
∗
∣
x
)
⩾
P
(
c
∣
x
)
e
r
r
∗
=
1
−
P
(
c
∗
∣
x
)
e
r
r
=
1
−
P
(
c
∣
x
)
由式(2)(3)有:
e
r
r
=
1
−
P
(
c
∣
x
)
⩾
1
−
P
(
c
∗
∣
x
)
=
e
r
r
∗
即【西瓜书(10.40)】左侧不等式得证.
e
r
r
⋍
1
−
∑
c
∈
Y
P
(
c
∣
x
)
2
(由【西瓜书(10.2)】第二行)
=
1
−
P
(
c
∗
∣
x
)
2
−
∑
c
≠
c
∗
P
(
c
∣
x
)
2
=
(
1
−
P
(
c
∗
∣
x
)
)
(
1
+
P
(
c
∗
∣
x
)
)
−
∑
c
≠
c
∗
P
(
c
∣
x
)
2
=
e
r
r
∗
(
2
−
e
r
r
∗
)
−
∑
c
≠
c
∗
P
(
c
∣
x
)
2
这里我们作点数学知识准备:将不等式
a
2
+
b
2
⩾
2
a
b
a^2+b^2\geqslant 2ab
a2+b2⩾2ab推广到一般情形:
∵
P
i
2
+
P
j
2
⩾
2
P
i
P
j
∴
∑
i
∑
j
(
P
i
2
+
P
j
2
)
⩾
2
∑
i
∑
j
P
i
P
j
∴
n
∑
i
P
i
2
⩾
∑
i
∑
j
P
i
P
j
=
(
∑
i
P
i
)
2
在式(6)中,令:
P
i
=
P
(
c
∣
x
)
P_i=P(c|\boldsymbol{x})
Pi=P(c∣x),(
c
∈
Y
,
c
≠
c
∗
c\in \mathcal{Y},c\neq c^*
c∈Y,c=c∗)故
n
=
∣
Y
∣
−
1
n=|\mathcal{Y}|-1
n=∣Y∣−1。
式(5)的第2项应用(6)有:
(
∣
Y
∣
−
1
)
∑
c
≠
c
∗
P
(
c
∣
x
)
2
⩾
(
∑
c
≠
c
∗
P
(
c
∣
x
)
)
2
由式(7)(5)整理即【西瓜书(10.40)】右侧不等式得证。
10.3:
参见8、协方差矩阵的特征值中的式 (D10)的证明。
10.4:
参见8、协方差矩阵的特征值中的式 (D11)的讨论。
注:10.3与10.4这两题都是讨论“中心化”问题。 “中心化”实际上是作平移,将坐标原点平移到“中心点”,这样,数据集就关于原点“对称”(物理质心),再求方差就简化了。
10.5:
投影变换公式是基于正交矩阵(即【西瓜书(10.15)】中
s
.
t
.
W
T
W
=
I
\mathrm{s.t.}\mathbf{W}^\mathrm{T}\mathbf{W}=\mathbf{I}
s.t.WTW=I)推导的,故当使用正交投影矩阵时,估值会更准确。 而非正交是现实问题的普遍现象,因此,采用非正交的方式的优势是适应范围广,缺点是损失了一定的合理性。
10.6:
这是一个实践题,理论依据参见10.6 图像压缩(图像坐标x压缩成了坐标z么?错!)。
10.7:
核化线性降维与流形学习从整体上看都是非线性变换,而且都是以线性变换为基础。 流形学习基于欧氏空间的“连续拼接”,当局部具有线性不变性,则为LLE算法, 核化线性降维是基于核空间中进行线性变换,对应于PCA降维有KPCA算法。优点就是利用线性变换使问题得到了极大简化,缺点就是寻找适合的“核”及“局部”没有通用的方法。
10.8:
短路:近邻范围指定过大时,距离很远的点,被误认为近邻;断路:近邻范围指定过小时,没有点的区域被误认为与其它区域不存在连接。处理方法是寻找一个度量“影响”的连续函数,变“局部视野”为“全局视野”,例如,【西瓜书图10.7】采用测地线距离以及【西瓜书(10.35)】采用影响概率。
10.9:
从LLE算法可知,它是对数据集
{
x
i
}
i
=
1
m
\{\boldsymbol{x}_i\}_{i=1}^m
{xi}i=1m进行“批量”转换为
{
z
i
}
i
=
1
m
\{\boldsymbol{z}_i\}_{i=1}^m
{zi}i=1m,但产生的点具有一一对应关系。 即对于
i
i
i,点
x
i
\boldsymbol{x}_i
xi对应于点
z
i
\boldsymbol{z}_i
zi。
设新样本为
x
0
\boldsymbol{x}_0
x0,找到其
k
k
k近邻点及下标集
Q
0
Q_0
Q0,由【西瓜书(10.28)】计算出
w
0
j
,
(
j
∈
Q
0
)
w_{0j},(j \in Q_0)
w0j,(j∈Q0),则得到
x
0
\boldsymbol{x}_0
x0的近似点:
x
^
0
=
∑
j
∈
Q
0
w
0
j
x
j
该近似点对应到低维空间中:
z
^
0
=
∑
j
∈
Q
0
w
0
j
z
j
则可将
z
^
0
\hat{\boldsymbol{z}}_0
z^0作为新样本
x
0
\boldsymbol{x}_0
x0的降维结果。
10.10:
参见10.10 度量学习(将欧氏距离推广成马氏距离)中将欧氏距离推广成马氏距离的讨论。
本文为原创,您可以:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。