赞
踩
LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。一句话来概括LDA的核心思想,【投影后类内方差最小,类间方差最大】。我们将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,如下图所示
目标函数已经得到,接下来是优化目标函数找到有一组最优鉴别矢量构成的投影矩阵
W
o
p
t
W_{opt}
Wopt(n为每个样本的特征个数),最佳投影矩阵
W
o
p
t
W_{opt}
Wopt的列向量恰为
S
b
φ
=
λ
S
w
φ
S_b \varphi = \lambda S_{w}\varphi
Sbφ=λSwφ 的最大特征值所对应的特征向量(即矩阵
S
w
−
1
S
b
S_{w}^{-1}S_b
Sw−1Sb 的特征向量),由此可求得
W
o
p
t
W_{opt}
Wopt
LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。在进行图像识别相关的数据分析时,LDA是一个有力的工具。下面总结下LDA算法的优缺点。
LDA代码实现:https://github.com/ruthy-wei/MachineLearning/tree/master/LDA
文章参考:
求样本 x(i) 的主成分(k维)其实就是求样本集的协方差阵 X X T XX^T XXT 的前 k 个最大特征值对应特征向量矩阵 W ,然后对于每个样本x(i),做如下变换 z ( i ) = W T x ( i ) z(i)=W^{T} x(i) z(i)=WTx(i),即达到降维的PCA目的
参考:
【PCA:投影后最大化数据方差】
【LDA:投影后类内方差最小,类间方差最大】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。