当前位置:   article > 正文

python数据分析 - 数据降维PCA_python pca降维

python pca降维


大概主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。

首先考虑一个问题:对于正交属性空间中的样本点,如何用一个超平面(直线的高维推广)对所有样本进行恰当的表达?

可以想到,若存在这样的超平面,那么它大概具有这样的性质:

  • 最近重构性:样本点到这个超平面的距离足够近
  • 最大可分性:样本点在这个超平面上的投影能尽可能的分开

基于最近重构性和最大可分性能分别得到主成分分析的两种等价推到,我们这里主要考虑最大可分性,并且一步一步推到出最终PCA。

1.PCA最大可分性的思想

对于 X = [ x 1 , x 2 , . . . , x n ] , X ∈ R n X=[x_1,x_2,...,x_n],X \in R^n X=[x1,x2,...,xn],XRn。我们想让 X X X n n n维降到 n ′ n^{'} n 维,同时希望信息损失最少。比如,从 n = 2 n = 2 n=2维降到 n ′ = 1 n^{'} = 1 n=1

在这里插入图片描述
我们既可以降维到第一主成分轴,也可以降维到第二主成分轴。那么如何找到这这些主成分轴并且选择最优成分轴呢?

直观上,第一主成分轴 优于 第二主成分轴,即具有最大可分性。
下面解决一些基本概念。

2.基变换

欲获得原始数据新的表示空间,最简单的方法是对原始数据进行线性变换(基变换):
Y = P X Y=PX Y=PX
其中 X X X是原始样本, P P P是基向量, Y Y Y是新表达。

我们可知选择不同的基可以对一组数据给出不同的表示,同时当基的数量少于原始样本本身的维数则可达到降维的效果,矩阵表示如下:
在这里插入图片描述
其中 p i p_i pi是行向量,表示第 i i i个基, x j x_j xj是一个列向量,表示第 j j j个原始数据记录.
R < N R < N R<N时即 基的维度 < < <数据维度时,可达到降维的目的。即:
X ∈ R N × M → Y ∈ R R × M X \in R^{N \times M} \rightarrow Y \in R^{R \times M } XRN×MYRR×M

以直角坐标系下的点(3,2)为例,欲将点(3,2)变换为新基上的坐标,就是用(3,2)与第一个基做内积运算,作为第一个新的坐标分量,然后用(3,2)与第二个基做内积运算,作为第二个新坐标的分量。
在这里插入图片描述
实际上,我们可以用矩阵相乘的形式简洁的表示这个变换:

可以稍微推广一下,如果我们有m个二维向量,只要将二维向量按列排成一个两行m列矩阵,然后用“基矩阵”乘以这个矩阵,就得到了所有这些向量在新基下的值。例如(1,1),(2,2),(3,3),想变换到刚才那组基上,则可以这样表示:
[ 1 2 1 2 − 1 2 1 2 ] [ 1 2 3 1 2 3 ] = [ 2 2 4 2 6 2 0 0 0 ] [12121212] [123123] = [224262000] [2 12 12 12 1][112233]=[22 042 062 0]

3.方差

回顾一下,我们的目的是希望在降维过程中损失最少,换言之,我们希望投影后的数据尽可能分散开。这种分散程度可以用方差来表达,方差 越大,数据越分散。

定义方差Var:对于单一随机变量a,
V a r ( a ) = 1 m ∑ i = 1 m ( a i − μ ) 2 Var(a) = \frac{1}{m} \sum_{i = 1}^m (a_i - \mu)^2 Var(a)=m1i=1m(aiμ)2

对数据做去中心化(方便后面操作):
V a r ( a ) = 1 m ∑ i = 1 m a i 2 Var(a) = \frac{1}{m} \sum_{i = 1}^m a_i ^2 Var(a)=m1i=1mai2

随机变量a表达了a的取值与其数学期望之间的偏离程度。若 V a r ( a ) Var(a) Var(a)较小,意味着a的取值主要集中在期望 μ \mu μ也就是 E ( a ) E(a) E(a)的附近,反之,若 V a r ( a ) Var(a) Var(a)较大,意味着 a a a的取值比较分散。

为了避免过于抽象,我们以一个具体的例子展开。假设我们5个样本数据,分别是
x 1 = [ 1 1 ] , x 2 = [ 1 3 ] , x 3 = [ 2 3 ] , x 4 = [ 4 4 ] , x 5 = [ 2 4 ] x_1 = [11], x_2 = [13], x_3 = [23], x_4 = [44] ,x_5 = [24] x1=[11],x2=[13],x3=[23],x4=[44],x5=[24]
将它们表示成矩阵形式:
X = [ 1 1 2 4 2 1 3 3 4 4 ] X = \begin{bmatrix} 1 & 1 & 2 & 4 & 2 \\ 1 & 3 & 3 & 4 & 4 \end {bmatrix} X=[1113234424]
为了后续处理方便,我们首先将每个字段内所有值都减去字段均值,其结果是将每个字段都变为均值为0.

我们看上面的数据,设第一个特征为 a a a ,第二个特征为 b b b, 此时某一个样本可以写作:
x i = [ a b ] x_i = \begin{bmatrix} a \\ b \end {bmatrix} xi=[ab]
且特征 a a a的均值为2, 特征 b b b的均值为3,所以变换后:
X = [ − 1 − 1 0 2 0 − 2 0 0 1 1 ] X = [1102020011] X=[1210002101]

V a r ( a ) = 6 5 Var(a ) = \frac{\sqrt 6} {5} Var(a)=56
V a r ( b ) = 6 5 Var(b ) = \frac{\sqrt 6} {5} Var(b)=56

4.协方差

协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。

比如对于二维随机变量 x i = [ a b ] x_i = [ab] xi=[ab],特征a,b除了自身的数学期望和方差,还需要讨论a,b之间互相关系的数学特征。

定义协方差 C o v Cov Cov
C o v ( a , b ) = 1 m ∑ i = 1 m a i b i Cov(a, b) = \frac{1}{m}\sum_{i = 1}^m a_i b_i Cov(a,b)=m1i=1maibi
C o v ( a , b ) = 0 Cov(a, b) = 0 Cov(a,b)=0时,变量a,b完全独立,这也是我们希望达到的优化目标。

方差是协方差的一种特殊情况,即当两个变量是相同的情况:
C o v ( a , a ) = V a r ( a ) Cov(a, a) = Var(a) Cov(a,a)=Var(a)

5.协方差矩阵

对于二维随机变量 x i = [ a b ] x_i = \begin{bmatrix} a \\ b \end {bmatrix} xi=[ab],

定义协方差矩阵C:
C = [ V a r ( a ) C o v ( a , b ) C o v ( b , a ) V a r ( b ) ] C = [Var(a)Cov(a,b)Cov(b,a)Var(b)] C=[Var(a)Cov(b,a)Cov(a,b)Var(b)]
对于n维随机变量 x i = [ x 1 x 2 ⋮   x n ] x_i = [x1x2 xn] xi=x1x2 xn,

C = [ V a r ( x 1 ) C o v ( x 1 , x 2 ) ⋯ C o v ( x 1 , x n ) C o v ( x 2 , x 1 ) V a r ( x 2 ) ⋯ C o v ( x 1 , x n ) ⋮ ⋮ ⋱ ⋮ C o v ( x n , x 1 ) C o v ( x n , x 2 ) ⋯ V a r ( x n ) ] C = [Var(x1)Cov(x1,x2)Cov(x1,xn)Cov(x2,x1)Var(x2)Cov(x1,xn)Cov(xn,x1)Cov(xn,x2)Var(xn)] C=Var(x1)Cov(x2,x1)Cov(xn,x1)Cov(x1,x2)Var(x2)Cov(xn,x2)Cov(x1,xn)Cov(x1,xn)Var(xn)
可见,协方差矩阵是n行n列的对称矩阵,主对角线上是方差,而协对角线上是协方差。

依然我们以一个具体的例子展开,还是这5个样本数据
x 1 = [ 1 1 ] , x 2 = [ 1 3 ] , x 3 = [ 2 3 ] , x 4 = [ 4 4 ] , x 5 = [ 2 4 ] x_1 = [11], x_2 = [13], x_3 = [23], x_4 = [44] ,x_5 = [24] x1=[11],x2=[13],x3=[23],x4=[44],x5=[24]

将它们去中心化后表示成矩阵形式:
X = [ − 1 − 1 0 2 0 − 2 0 0 1 1 ] X = [1102020011] X=[1210002101]

那如果有m个样本的话,
X = [ a 1 a 2 ⋯ a m b 1 b 2 ⋯ b m ] X =[a1a2amb1b2bm] X=[a1b1a2b2ambm]
对X做一些变换,用X乘以X的转置,并乘上系数 1 / m 1/m 1/m

1 m X X T = 1 m [ a 1 a 2 ⋯ a m b 1 b 2 ⋯ b m ] [ a 1 b 1 a 2 b 2 ⋮ ⋮ a m b m ] = [ 1 m ∑ i = 1 m a i 2 1 m ∑ i = 1 m a i b i 1 m ∑ i = 1 m a i b i 1 m ∑ i = 1 m b i 2 ] \frac{1}{m}XX^T = \frac{1}{m}[a1a2amb1b2bm] [a1b1a2b2ambm] = [1mmi=1a2i1mmi=1aibi1mmi=1aibi1mmi=1b2i] m1XXT=m1[a1b1a2b2ambm]a1a2amb1b2bm=[m1i=1mai2m1i=1maibim1i=1maibim1i=1mbi2]

这个就是协方差矩阵嘛!

设我们有m个n维数据记录,将其按列排成n乘m的矩阵X,设 C = 1 m X X T C = \frac{1}{m}XX^T C=m1XXT,则C是一个对称矩阵,其对角线分别个各个特征的方差,而第i行j列和j行i列元素相同,表示i和j两个特征之间的协方差。

6.协方差矩阵对角化

现在我们有m个样本数据,每个样本有n个特征,那么设这些原始数据为X,X为n行m列的矩阵。
想要找到一个基P,使 Y r × m = P r × n X n × m Y_{r \times m} = P_{r \times n}X_{n \times m} Yr×m=Pr×nXn×m,其中r<n,达到降维的目的。
设X的协方差矩阵为C,Y的协方差矩阵为D,且Y = PX。

我们的目的变为:对原始数据X做PCA后,得到的Y的协方差矩阵D的各个方向方差最大,协方差为0。
那么C与D是什么关系呢?
D = 1 m Y Y T = 1 m ( P X ) ( P X ) T = 1 m P X X T P T = 1 m P ( X X T ) P T = P C P T = P [ 1 m ∑ i = 1 m a i 2 1 m ∑ i = 1 m a i b i 1 m ∑ i = 1 m a i b i 1 m ∑ i = 1 m b i 2 ] P T D = \frac{1}{m}YY^T = \frac{1}{m} (PX)(PX)^T = \frac{1}{m}PXX^TP^T = \frac{1}{m}P(XX^T)P^T = PCP^T = P [1mmi=1a2i1mmi=1aibi1mmi=1aibi1mmi=1b2i] P^T D=m1YYT=m1(PX)(PX)T=m1PXXTPT=m1P(XXT)PT=PCPT=P[m1i=1mai2m1i=1maibim1i=1maibim1i=1mbi2]PT

我们要找的P不是别的,而是能让原始协方差矩阵对角化的P。

换句话说,优化目标变成了寻找一个矩阵 P P P,满足 P C P T PCP^T PCPT是一个对角矩阵,并且对角元素按从大到小依次排列,那么P的前K行就是要寻找的基,用P的前K行组成的矩阵乘以X就使得X从N维降到了K维并满足上述优化条件。
现在所有焦点都聚焦在了协方差矩阵对角化问题上。

由上文知道,协方差矩阵C是一个是对称矩阵,在线性代数上,实对称矩阵有一系列非常好的性质:

1)实对称矩阵不同特征值对应的特征向量必然正交。

2)设特征向量 λ \lambda λ重数为r,则必然存在r个线性无关的特征向量对应于 λ \lambda λ,因此可以将这r个特征向量单位正交化。

由上面两条可知,一个n行n列的实对称矩阵一定可以找到n个单位正交特征向量,设这n个特征向量为e_1,e_2,⋯,e_n,我们将其按列组成矩阵:
E = [ e 1 e 2 ⋯   e n ] E = [e1e2 en] E=[e1e2 en]

则对协方差矩阵C有如下结论:
E T C E = Λ = [ λ 1 λ 2 ⋱ λ n ] E^T C E = \Lambda = \begin{bmatrix} \lambda_1 \\ & \lambda_2 \\ &&\ddots \\ &&&\lambda_n\end {bmatrix} ETCE=Λ=λ1λ2λn

其中\Lambda为对角矩阵,其对角元素为各特征向量对应的特征值(可能有重复)。

结合上面的公式:
D = P C P T D = PCP^T D=PCPT
其中,D为对角矩阵,我们可以得到:
P = E T P = E^T P=ET
P是协方差矩阵C的特征向量单位化后按行排列出的矩阵,其中每一行都是C的一个特征向量。如果设P按照\Lambda中特征值的从大到小,将特征向量从上到下排列,则用P的前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y。

7.PCA算法流程

总结一下PCA的算法步骤:

设有m条n维数据。

1)将原始数据按列组成n行m列矩阵X

2)将X的每一行(代表一个特征)进行零均值化,即减去这一行的均值

3)求出协方差矩阵 C = 1 m X X T C=\frac{1}{m}XX^T C=m1XXT

4)求出协方差矩阵C的特征值及对应的特征向量

5)将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P

6)Y=PX即为降维到k维后的数据

8.PCA实例

这里以上文提到的:
x 1 = [ 1 1 ] , x 2 = [ 1 3 ] , x 3 = [ 2 3 ] , x 4 = [ 4 4 ] , x 5 = [ 2 4 ] , 将 它 们 表 示 成 矩 阵 形 式 : X = [ 1 1 2 4 2 1 3 3 4 4 ] x_1 = [11], x_2 = [13], x_3 = [23], x_4 = [44] ,x_5 = [24],将它们表示成矩阵形式: X = \begin{bmatrix} 1 & 1 & 2 & 4 & 2 \\ 1 & 3 & 3 & 4 & 4 \end {bmatrix} x1=[11],x2=[13],x3=[23],x4=[44],x5=[24]X=[1113234424]

我们用PCA方法将这组二维数据其降到一维。

为了后续处理方便,我们首先将每个特征内所有值都减去字段均值,其结果是将每个字段都变为均值为0.
X = [ − 1 − 1 0 2 0 − 2 0 0 1 1 ] X = [1102020011] X=[1210002101]
因为这个矩阵的每行已经是零均值,这里我们直接求协方差矩阵:
C = 1 5 [ − 1 − 1 0 2 0 − 2 0 0 1 1 ] [ − 1 − 2 − 1 0 0 0 2 1 0 1 ] = [ 6 5 4 5 4 5 6 5 ] C = \frac{1}{5} [1102020011][1210002101] = [65454565] C=51[1210002101]1102020011=[56545456]
对于矩阵C:
C = [ 6 5 4 5 4 5 6 5 ] C = [65454565] C=[56545456]
λ \lambda λ和v分别是特征值和特征向量,
∵ C v = λ v \because Cv = \lambda v Cv=λv,则:
( C − λ I ) v = 0 (C - \lambda I)v = 0 (CλI)v=0
为了使这个方程式有非零解,矩阵(C - \lambda I)的行列式必须是0:
d e t ( C − λ I ) = 0 det(C - \lambda I) = 0 det(CλI)=0
即:
d e t ( [ 6 5 − λ 4 5 4 5 6 5 − λ ] ) = 0 det([65λ454565λ]) = 0 det([56λ545456λ])=0
则:
( 6 5 − λ ) 2 − 16 25 = 0 (\frac{6}{5}-\lambda) ^2 -\frac{16}{25} = 0 (56λ)22516=0
分解得:
( λ − 2 ) ( 5 λ − 2 ) = 0 (\lambda -2)(5\lambda -2) = 0 (λ2)(5λ2)=0
找到2个特征值, λ = 2 , λ = 2 5 \lambda = 2, \lambda = \frac{2}{5} λ=2,λ=52,

w h e n λ = 2 when \lambda = 2 whenλ=2:
( C − λ I ) v = 0 (C - \lambda I)v = 0 (CλI)v=0
即:
[ − 4 5 4 5 4 5 − 4 5 ] [ v 1 v 2 ] = [ 0 0 ] [45454545] [v1v2] = [00] [54545454][v1v2]=[00]
则:
v 1 − v 2 = 0 v_1 - v_2 = 0 v1v2=0
v 1 v_1 v1 v 2 v_2 v2可以取任意值,我们取归一化的 v 1 v_1 v1 v 2 v_2 v2,即: v 1 2 + v 2 2 = 1 v_1^2 + v_2^2 = 1 v12+v22=1,
此时 v 1 = 2 2 和 v 2 = 2 2 v = [ 2 2 2 2 ] v_1 = \frac{\sqrt{2} } {2} 和 v_2 = \frac{\sqrt{2} } {2} v = [2222] v1=22 v2=22 v=[22 22 ]

w h e n λ = 2 5 when \lambda = \frac{2}{5} whenλ=52:
( C − λ I ) v = 0 (C - \lambda I)v = 0 (CλI)v=0
即:
[ 4 5 4 5 4 5 4 5 ] [ v 1 v 2 ] = [ 0 0 ] [45454545] [v1v2] = \begin{bmatrix} 0 \\ 0 \\ \end {bmatrix} [54545454][v1v2]=[00]
则:
v 1 v_1 v1 + v 2 v_2 v2 = 0
v 1 v_1 v1 v 2 v_2 v2可以取任意值,我们取归一化的 v 1 v_1 v1 v 2 v_2 v2,即: v 1 2 + v 2 2 = 1 v_1^2 + v_2^2 = 1 v12+v22=1
此时 v 1 = 2 2 和 v 2 = − 2 2 v = [ − 2 2 2 2 ] v_1 = \frac{\sqrt{2} } {2} 和 v_2 = -\frac{\sqrt{2} } {2} v = [2222] v1=22 v2=22 v=[22 22 ]

所以:
P = [ 2 2 2 2 − 2 2 2 2 ] P = [22222222] P=[22 22 22 22 ]

可以验证协方差矩阵C的对角化:
P C P T = [ 2 2 2 2 − 2 2 2 2 ] [ 6 5 4 5 4 5 6 5 ] [ 2 2 − 2 2 2 2 2 2 ] = [ 2 0 0 2 5 ] PCP^T = [22222222] [65454565] [22222222] = \begin{bmatrix} 2 & 0 \\ 0 & \frac{2}{5}\end {bmatrix} PCPT=[22 22 22 22 ][56545456][22 22 22 22 ]=[20052]
最后我们用P的第一行乘以数据矩阵,就得到了降维后的表示:
Y = P X = [ 2 2 2 2 ] [ − 1 − 1 0 2 0 − 2 0 0 1 1 ] = [ − 3 2 2 − 2 2 0 3 2 2 2 2 ] Y = PX = [2222] [1102020011] = [32222032222] Y=PX=[22 22 ][1210002101]=[232 22 0232 22 ]

降维投影结果如下图:

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/127162
推荐阅读
相关标签
  

闽ICP备14008679号