当前位置:   article > 正文

sklearn 相似度矩阵_精简易懂,30 分钟学会 SVD 矩阵分解,很强!

sklearn 相似度矩阵
SVD(Singular Value Decomposition)奇异值分解分解是机器学习中最重要的矩阵分解方法。

它能够将一个任意形状的矩阵分解成一个正交矩阵和一个对角矩阵以及另一个正交矩阵的乘积。

SVD分解具有非常深刻的几何含义。矩阵实际上对应着一种线性变换,一个矩阵作用到一个向量上,会得到一个新的向量。任何一个矩阵的操作效果可以分解成一次旋转,一次拉伸和维度改变,以及另外一次旋转三者作用效果的合成。

SVD分解通常用于数据压缩和数据降维。用于数据降维时,既可以对列降维,也可以对行降维,其中对列的降维等价于PCA的降维。

不仅如此,SVD算法还可以用于在声音和图像处理中剥离背景信号,在推荐算法中也经常出现它的身影。

一,SVD矩阵分解简介

SVD分解将任意矩阵分解成一个正交矩阵和一个对角矩阵以及另一个正交矩阵的乘积。

对角矩阵的对角元称为矩阵的奇异值,可以证明,奇异值总是大于等于0的。

当对角矩阵的奇异值按从大到小排列时,SVD分解是唯一的。

f7f11749aef689dedcbfb02810f878d2.png

2f033b9279608024884512461d96b2d0.png

SVD分解有着非常深刻的几何含义。

矩阵实际上是对应着一种线性变换。一个矩阵作用到一个向量上,会得到一个新的向量。任何一个矩阵的操作效果可以分解成一次旋转,一次拉伸和维度改变,以及另外一次旋转三者作用效果的合成。

注意正交矩阵和作用到向量后是不会改变向量长度的,所以对应着旋转变换。

二,SVD分解的数学推演

2dfefc8dbd4455fffbb487634a7c4c4e.png  可以推出

eab0527c7054db3485d1817ba0751030.png

b502227d4a784b2f47f653e35b608cdd.png

8a92ceba293f29c0a25f9ae3e8a08b5c.png依然是对角矩阵,又U为正交矩阵。

所以 8a92ceba293f29c0a25f9ae3e8a08b5c.png为AA^T的相似对角矩阵,其对角元为AA^T的特征值,U由其对应特征向量构成,这些向量称为A的左奇异向量。

因此8a92ceba293f29c0a25f9ae3e8a08b5c.png的对角元为AA^T特征值的平方根,称之为矩阵A的奇异值。

类似地V由A^TA的特征向量构成,这些向量称为A的右奇异向量。

三,SVD分解和数据压缩

奇异值描述了矩阵对应的拉伸变换在各个方向的比例,是矩阵的重要特征。

奇异值的分布通常非常不均,在很多的情况下前10%甚至1%的奇异值之和就占了全部奇异值之和的99%以上。

因此我们可以用前个大的奇异值来近似的描述矩阵。e4bf9e2f335c481b22f55fabe9c47306.png

这就是SVD分解用来进行数据压缩的原理。

093b4e81efaaaaf37a05820479b23ad2.png

假设 m = 10000,n = 8000,原来存储矩阵A需要存储8000万个数字,如果经过奇异值分解发现前100个奇异值贡献了99%的奇异值之和,于是可以近似只保留这100个奇异值及对应的左右奇异向量,那么只需要保留100+10000×100+100×8000= 180.01万个数字,只有原来的不到2.3%。
# 下面的范例示范SVD分解用于图片数据压缩。%matplotlib inline %config InlineBackend.figure_format = 'svg'import numpy as np from matplotlib import pyplot as pltfrom skimage import datadef compressBySVD(img,r):    u,s,vt = np.linalg.svd(img)    ur = u[:,0:r]    sr = s[0:r]    vtr = vt[0:r,:]    return (ur,sr,vtr)def rebuildFromSVD(ur,sr,vtr):    img = ur@np.diag(sr)@vtr    return(img)img = data.camera()/255.0plt.figure(figsize=(10,8)) for i,r in enumerate([5,10,20,30,40,50,100,200],start = 1):    ur,sr,vtr = compressBySVD(img,r)    compress_ratio = (np.product(ur.shape) + len(sr) +                       np.product(vtr.shape))/np.product(img.shape)    img_rebuild = rebuildFromSVD(ur,sr,vtr)    ax=plt.subplot(3,3,i)    ax.imshow(img_rebuild,cmap = "gray")    ax.set_title("r=%d"%r+", compress_ratio=%.2f"%compress_ratio)    ax.set_xticks([])    ax.set_yticks([]) ax = plt.subplot(3,3,9)ax.imshow(img,cmap = "gray")ax.set_title("r = 512, original image")ax.set_xticks([])ax.set_yticks([]) plt.show()

6fab9fa7136f51ccfe5d21dc47b12d29.png

四,SVD分解和PCA降维

PCA降维可以看成是SVD分解的一个应用。PCA降维使用的变换矩阵恰好是SVD分解的右奇异矩阵。

实际上,由于SVD分解存在着无需通过计算特征值和特征向量的可并行的数值迭代计算算法,sklearn的PCA降维算法正是通过SVD分解计算的。

4b46642c08a1cb594915d1a24981b46e.png

下面证明SVD分解的右奇异向量构成的矩阵 恰好是PCA算法所需要的正交变换矩阵 。

假定PCA对应的正交变换矩阵为,根据PCA算法的数学原理,

由协方差矩阵cbccf00f6bc6e35d177cebcd653460a3.png 的各个特征向量组成,它能够将协方差矩阵相似对角化。

c0bd7d389f2c1895555cb0160b97b917.png

其中为cbccf00f6bc6e35d177cebcd653460a3.png的相似对角矩阵,且对角元由大到小排列。

利用的SVD矩阵分解:

a3349ed9578045492334ccc3d82f04f5.png

我们有

ec3bfcb544943a5b5e96bb978700db15.png

根据SVD分解的数学原理,也是 cbccf00f6bc6e35d177cebcd653460a3.png的相似对角矩阵,且对角元由大到小排列。

于是有:

286a76ed926834cf1e9bc9529ac1945a.png

e58aa91767196cae557751e80efd5ecb.png

于是右奇异向量构成的矩阵 ? 恰好是PCA算法所需要的正交变换矩阵 ?。

fc8065f1b22c71e188bbd7d9cfcfac7f.png

注意到PCA算法实际上是一种列降维的方法,实际上利用SVD分解的左奇异矩阵也可以对矩阵进行行降维。

ed34ae9cef3155f39571c91827a5a563.png

# 演示SVD用于PCA降维的计算%matplotlib inline %config InlineBackend.figure_format = 'svg'import numpy as np from sklearn.decomposition import PCAfrom matplotlib import pyplot as pltfrom skimage import dataX = np.array([[-1.0, -3, -2], [-2, -1, -3], [-3, -2, -5], [213], [613], [223]])pca = PCA(n_components= 2)X_new = pca.fit_transform(X)print("\ndecomposition by pca:")print("singular value:")print(pca.singular_values_)print("X_new:")print(X_new)print("\ndecomposition by svd:")U,S,Vt = np.linalg.svd(X-X.mean(axis = 0))print("singular value:\n",S[:2])print("X_new:")print(np.dot(X-X.mean(axis = 0),np.transpose(Vt)[:,0:2]))# 注:降维结果中正负号的差异是因为PCA调整了SVD分解后的U和Vt符号以保持各列最大值取正

输出如下:

decomposition by pca:singular value:[11.31375337  2.89544001]X_new:[[ 3.23378083  1.06346839] [ 3.88607412 -0.50763321] [ 6.25267378  0.08479886] [-3.50509914 -0.96584476] [-6.02398361  1.89494314] [-3.84344598 -1.56973242]]decomposition by svd:singular value: [11.31375337  2.89544001]X_new:[[-3.23378083 -1.06346839] [-3.88607412  0.50763321] [-6.25267378 -0.08479886] [ 3.50509914  0.96584476] [ 6.02398361 -1.89494314] [ 3.84344598  1.56973242]]

此文章的原创作者:云哥,欢迎关注他的公众号。

44dd8a3d5f73ea796f5cc797d38d590e.png

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
  

闽ICP备14008679号