当前位置:   article > 正文

【机器学习】数据降维—核主成分分析(Kernel PCA)_rbf_kernel_pca

rbf_kernel_pca

本文代码推荐使用Jupyter notebook跑,这样得到的结果更为直观。

KPCA:将非线性可分的数据转换到一个适合对齐进行线性分类的新的低维子空间上。

 

非线性函数:

Φ为一个函数,能够对原始的特征进行非线性组合将原始的d维数据集映射到更高的k维特征空间


利用核PCA可以通过非线性映射将数据转换到一个高维空间中,在高维空间中使用PCA将其映射到另一个低维空间中,并通过线性分类器对样本对其划分。

此方法的缺点:高昂的计算成本


使用核技巧的原因:通过使用核技巧,我们可以在原始特征空间中计算两个高维特征空间中向量的相似度



核函数:通过两个向量点积来度量向量间相似度的函数

常用核函数:

多项式核:


双曲正切核:


径向基核函数(RBF)(高斯核函数):



三个步骤实现RBF核的PCA:

 1、       为了计算核(相似)矩阵k,需要计算任意两个样本之间的值

 2、       对核矩阵进行聚集处理,使核矩阵k更为聚集

 3、       将聚集后的核矩阵的特征值按照降序排列,选择前k个特征值所对应的特征向量,这里的向量不是主成分轴,而是将样本映射到这些轴上。



python实现核主成分分析:

使用scipyNumPy实现核PCA方法。


  1. from scipy.spatial.distance import pdist, squareform
  2. from scipy import exp
  3. from scipy.linalg import eigh
  4. import numpy as np
  5. def rbf_kernel_pca(X, gamma, n_components):
  6. """
  7. RBF kernel PCA 实现.
  8. Parameters
  9. ------------
  10. X: {NumPy ndarray}, shape = [n_samples, n_features]
  11. gamma: float
  12. RBF核的调优参数
  13. n_components: int
  14. 要返回的主要组件的数量
  15. Returns
  16. ------------
  17. X_pc: {NumPy ndarray}, shape = [n_samples, k_features]
  18. Projected dataset
  19. """
  20. # 计算成对的欧几里得距离。
  21. #在MxN维数据集中
  22. sq_dists = pdist(X, 'sqeuclidean')
  23. # 将成对距离转换成方阵。
  24. mat_sq_dists = squareform(sq_dists)
  25. # 计算对称核矩阵。
  26. K = exp(-gamma * mat_sq_dists)
  27. # 中心核矩阵.
  28. N = K.shape[0]
  29. one_n = np.ones((N,N)) / N
  30. K = K - one_n.dot(K) - K.dot(one_n) + one_n.dot(K).dot(one_n)
  31. # 从中心核矩阵得到特征对。
  32. # numpy.eigh 按顺序返回它们
  33. eigvals, eigvecs = eigh(K)
  34. #收集顶级k特征向量(投影样本)
  35. X_pc = np.column_stack((eigvecs[:, -i]
  36. for i in range(1, n_components + 1)))
  37. return X_pc


案例一:


  1. # 分离半月形数据,实现rbf_kernel_pca方法应用于非线性数据集
  2. # 创建一个包含100个样本的二维数据集,以两个半月形状表示
  3. import matplotlib.pyplot as plt
  4. %matplotlib inline
  5. from sklearn.datasets import make_moons
  6. X, y = make_moons(n_samples=100, random_state=123)
  7. plt.scatter(X[y==0, 0], X[y==0, 1], color='red', marker='^', alpha=0.5)
  8. plt.scatter(X[y==1, 0], X[y==1, 1], color='blue', marker='o', alpha=0.5)
  9. plt.tight_layout()
  10. # plt.savefig('./figures/half_moon_1.png', dpi=300)
  11. plt.show()


由图可知,该数据集为非线性可分。

通过核PCA将该数据集展开,使得数据集成为适用于某一线性分类器的输入数据。



  1. # 通过标准的PCA将数据映射到主成分上,对比原图
  2. from sklearn.decomposition import PCA
  3. from sklearn.preprocessing import StandardScaler
  4. scikit_pca = PCA(n_components=2)
  5. X_spca = scikit_pca.fit_transform(X)
  6. fig, ax = plt.subplots(nrows=1,ncols=2, figsize=(7,3))
  7. ax[0].scatter(X_spca[y==0, 0], X_spca[y==0, 1],
  8. color='red', marker='^', alpha=0.5)
  9. ax[0].scatter(X_spca[y==1, 0], X_spca[y==1, 1],
  10. color='blue', marker='o', alpha=0.5)
  11. ax[1].scatter(X_spca[y==0, 0], np.zeros((50,1))+0.02,
  12. color='red', marker='^', alpha=0.5)
  13. ax[1].scatter(X_spca[y==1, 0], np.zeros((50,1))-0.02,
  14. color='blue', marker='o', alpha=0.5)
  15. ax[0].set_xlabel('PC1')
  16. ax[0].set_ylabel('PC2')
  17. ax[1].set_ylim([-1, 1])
  18. ax[1].set_yticks([])
  19. ax[1].set_xlabel('PC1')
  20. plt.tight_layout()
  21. # plt.savefig('./figures/half_moon_2.png', dpi=300)
  22. plt.show()


经过标准PCA的转换后,线性分类器未必能很好的发挥其作用。


  1. # 使用核PCA函数rbf_kernel_pca
  2. from matplotlib.ticker import FormatStrFormatter
  3. X_kpca = rbf_kernel_pca(X, gamma=15, n_components=2)
  4. fig, ax = plt.subplots(nrows=1,ncols=2, figsize=(7,3))
  5. ax[0].scatter(X_kpca[y==0, 0], X_kpca[y==0, 1],
  6. color='red', marker='^', alpha=0.5)
  7. ax[0].scatter(X_kpca[y==1, 0], X_kpca[y==1, 1],
  8. color='blue', marker='o', alpha=0.5)
  9. ax[1].scatter(X_kpca[y==0, 0], np.zeros((50,1))+0.02,
  10. color='red', marker='^', alpha=0.5)
  11. ax[1].scatter(X_kpca[y==1, 0], np.zeros((50,1))-0.02,
  12. color='blue', marker='o', alpha=0.5)
  13. ax[0].set_xlabel('PC1')
  14. ax[0].set_ylabel('PC2')
  15. ax[1].set_ylim([-1, 1])
  16. ax[1].set_yticks([])
  17. ax[1].set_xlabel('PC1')
  18. ax[0].xaxis.set_major_formatter(FormatStrFormatter('%0.1f'))
  19. ax[1].xaxis.set_major_formatter(FormatStrFormatter('%0.1f'))
  20. plt.tight_layout()
  21. # plt.savefig('./figures/half_moon_3.png', dpi=300)
  22. plt.show()

两个类别此时是线性可分的,使得数据适合成为线性分类器的训练集

对于可调参数γ,没有一个通用的值,只能具体问题具体调整。



案例二:

  1. # 分离同心圆
  2. from sklearn.datasets import make_circles
  3. X, y = make_circles(n_samples=1000, random_state=123, noise=0.1, factor=0.2)
  4. plt.scatter(X[y==0, 0], X[y==0, 1], color='red', marker='^', alpha=0.5)
  5. plt.scatter(X[y==1, 0], X[y==1, 1], color='blue', marker='o', alpha=0.5)
  6. plt.tight_layout()
  7. # plt.savefig('./figures/circles_1.png', dpi=300)
  8. plt.show()


  1. # 使用标准PCA方法,对比原图
  2. scikit_pca = PCA(n_components=2)
  3. X_spca = scikit_pca.fit_transform(X)
  4. fig, ax = plt.subplots(nrows=1,ncols=2, figsize=(7,3))
  5. ax[0].scatter(X_spca[y==0, 0], X_spca[y==0, 1],
  6. color='red', marker='^', alpha=0.5)
  7. ax[0].scatter(X_spca[y==1, 0], X_spca[y==1, 1],
  8. color='blue', marker='o', alpha=0.5)
  9. ax[1].scatter(X_spca[y==0, 0], np.zeros((500,1))+0.02,
  10. color='red', marker='^', alpha=0.5)
  11. ax[1].scatter(X_spca[y==1, 0], np.zeros((500,1))-0.02,
  12. color='blue', marker='o', alpha=0.5)
  13. ax[0].set_xlabel('PC1')
  14. ax[0].set_ylabel('PC2')
  15. ax[1].set_ylim([-1, 1])
  16. ax[1].set_yticks([])
  17. ax[1].set_xlabel('PC1')
  18. plt.tight_layout()
  19. # plt.savefig('./figures/circles_2.png', dpi=300)
  20. plt.show()


  1. # 给定一个合适的γ值,基于RBF的核PCA实现
  2. X_kpca = rbf_kernel_pca(X, gamma=15, n_components=2)
  3. fig, ax = plt.subplots(nrows=1,ncols=2, figsize=(7,3))
  4. ax[0].scatter(X_kpca[y==0, 0], X_kpca[y==0, 1],
  5. color='red', marker='^', alpha=0.5)
  6. ax[0].scatter(X_kpca[y==1, 0], X_kpca[y==1, 1],
  7. color='blue', marker='o', alpha=0.5)
  8. ax[1].scatter(X_kpca[y==0, 0], np.zeros((500,1))+0.02,
  9. color='red', marker='^', alpha=0.5)
  10. ax[1].scatter(X_kpca[y==1, 0], np.zeros((500,1))-0.02,
  11. color='blue', marker='o', alpha=0.5)
  12. ax[0].set_xlabel('PC1')
  13. ax[0].set_ylabel('PC2')
  14. ax[1].set_ylim([-1, 1])
  15. ax[1].set_yticks([])
  16. ax[1].set_xlabel('PC1')
  17. plt.tight_layout()
  18. # plt.savefig('./figures/circles_3.png', dpi=300)
  19. plt.show()

使其两个类别线性可分。


映射新的数据点:

以上案例基于单一数据集映射到一个新的特征上,实际上需要转换多个数据集

  1. # 修改过后的rbf_kernel_pca方法
  2. from scipy.spatial.distance import pdist, squareform
  3. from scipy import exp
  4. from scipy.linalg import eigh
  5. import numpy as np
  6. def rbf_kernel_pca(X, gamma, n_components):
  7. """
  8. RBF kernel PCA implementation.
  9. Parameters
  10. ------------
  11. X: {NumPy ndarray}, shape = [n_samples, n_features]
  12. gamma: float
  13. Tuning parameter of the RBF kernel
  14. n_components: int
  15. Number of principal components to return
  16. Returns
  17. ------------
  18. X_pc: {NumPy ndarray}, shape = [n_samples, k_features]
  19. Projected dataset
  20. lambdas: list
  21. Eigenvalues
  22. """
  23. # Calculate pairwise squared Euclidean distances
  24. # in the MxN dimensional dataset.
  25. sq_dists = pdist(X, 'sqeuclidean')
  26. # Convert pairwise distances into a square matrix.
  27. mat_sq_dists = squareform(sq_dists)
  28. # Compute the symmetric kernel matrix.
  29. K = exp(-gamma * mat_sq_dists)
  30. # Center the kernel matrix.
  31. N = K.shape[0]
  32. one_n = np.ones((N,N)) / N
  33. K = K - one_n.dot(K) - K.dot(one_n) + one_n.dot(K).dot(one_n)
  34. # Obtaining eigenpairs from the centered kernel matrix
  35. # numpy.eigh returns them in sorted order
  36. eigvals, eigvecs = eigh(K)
  37. # Collect the top k eigenvectors (projected samples)
  38. alphas = np.column_stack((eigvecs[:,-i] for i in range(1,n_components+1)))
  39. # 修改处,收集相应的特征值
  40. lambdas = [eigvals[-i] for i in range(1,n_components+1)]
  41. return alphas, lambdas

  1. # 创建新的半月形数据集,使用更新过的RBF核PCA实现映射到一个一维子空间上。
  2. X, y = make_moons(n_samples=100, random_state=123)
  3. alphas, lambdas = rbf_kernel_pca(X, gamma=15, n_components=1)

  1. # 假设半月形的数据集中的第26个点是新的数据点x‘。将其映射到子空间中。
  2. x_new = X[25]
  3. x_new
  4. x_proj = alphas[25] # 原始投影
  5. x_proj


  1. # 重现原始映射,使用project_x函数,可以映射新的数据样本。
  2. def project_x(x_new, X, gamma, alphas, lambdas):
  3. pair_dist = np.array([np.sum((x_new-row)**2) for row in X])
  4. k = np.exp(-gamma * pair_dist)
  5. return k.dot(alphas / lambdas)

  1. # “新”数据点的投影。
  2. x_reproj = project_x(x_new, X, gamma=15, alphas=alphas, lambdas=lambdas)
  3. x_reproj


  1. # 将第一主成分是的映射进行可视化
  2. plt.scatter(alphas[y==0, 0], np.zeros((50)),
  3. color='red', marker='^',alpha=0.5)
  4. plt.scatter(alphas[y==1, 0], np.zeros((50)),
  5. color='blue', marker='o', alpha=0.5)
  6. plt.scatter(x_proj, 0, color='black', label='original projection of point X[25]', marker='^', s=100)
  7. plt.scatter(x_reproj, 0, color='green', label='remapped point X[25]', marker='x', s=500)
  8. plt.legend(scatterpoints=1)
  9. plt.tight_layout()
  10. # plt.savefig('./figures/reproject.png', dpi=300)
  11. plt.show()



Scikit-learn中的核主成分分析:


  1. # kernel参数可选择不同的核函数
  2. from sklearn.decomposition import KernelPCA
  3. X, y = make_moons(n_samples=100, random_state=123)
  4. scikit_kpca = KernelPCA(n_components=2, kernel='rbf', gamma=15)
  5. X_skernpca = scikit_kpca.fit_transform(X)
  6. plt.scatter(X_skernpca[y==0, 0], X_skernpca[y==0, 1],
  7. color='red', marker='^', alpha=0.5)
  8. plt.scatter(X_skernpca[y==1, 0], X_skernpca[y==1, 1],
  9. color='blue', marker='o', alpha=0.5)
  10. plt.xlabel('PC1')
  11. plt.ylabel('PC2')
  12. plt.tight_layout()
  13. # plt.savefig('./figures/scikit_kpca.png', dpi=300)
  14. plt.show()













声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/129105?site
推荐阅读
相关标签
  

闽ICP备14008679号