当前位置:   article > 正文

文本处理算法_基于 Python 的 11 种经典数据降维算法

大数据 降维 文本处理

网上关于各种降维算法的资料参差不齐,同时大部分不提供源代码。这里有个 GitHub 项目整理了使用 Python 实现了 11 种经典的数据抽取(数据降维)算法,包括:PCA、LDA、MDS、LLE、TSNE 等,并附有相关资料、展示效果;非常适合机器学习初学者和刚刚入坑数据挖掘的小伙伴。

所谓降维,即用一组个数为 d 的向量 Zi 来代表个数为 D 的向量 Xi 所包含的有用信息,其中 d<D,通俗来讲,即将高维度下降至低维度;将高维数据下降为低维数据。

但在实际应用中,我们所用到的有用信息却并不需要那么高的维度,而且每增加一维所需的样本个数呈指数级增长,这可能会直接带来极大的「维数灾难」;而数据降维就可以实现:

去除噪音一旦我们能够正确处理这些信息,正确有效地进行降维,这将大大有助于减少计算量,进而提高机器运作效率。而数据降维,也常应用于文本处理、人脸识别、图片识别、自然语言处理等领域。

例如:现有一张 1024*1024 的图,除去中心 50*50 的区域其它位置均为零值,这些为零的信息就可以归为无用信息;而对于对称图形而言,对称部分的信息则可以归为重复信息。

哈尔滨工业大学计算机技术专业的在读硕士生 Heucoder 则整理了 PCA、KPCA、LDA、MDS、ISOMAP、LLE、TSNE、AutoEncoder、FastICA、SVD、LE、LPP 共 12 种经典的降维算法,并提供了相关资料、代码以及展示,下面将主要以 PCA 算法为例介绍降维算法具体操作。

PCA 是一种基于从高维空间映射到低维空间的映射方法,也是最基础的无监督降维算法,其目标是向数据变化最大的方向投影,或者说向重构误差最小化的方向投影。它由 Karl Pearson 在 1901 年提出,属于线性降维方法。与 PCA 相关的原理通常被称为最大方差理论或最小误差理论。这两者目标一致,但过程侧重点则不同。

将一组 N 维向量降为 K 维(K 大于 0,小于 N),其目标是选择 K 个单位正交基,各字段两两间 COV(X,Y) 为 0,而字段的方差则尽可能大。因此,最大方差即使得投影数据的方差被最大化,在这过程中,我们需要找到数据集 Xmxn 的最佳的投影空间 Wnxk、协方差矩阵等,其算法流程为:

defshuffle_data(X, y, seed=None): ifseed: (seed)

idx = ([ 0]) (idx)

returnX[idx], y[idx]

# 正规化数据集 Xdefnormalize(X, axis= -1, p= 2) : lp_norm = ((X, p, axis))lp_norm[lp_norm == 0] = 1returnX / (lp_norm, axis)

# 标准化数据集 Xdefstandardize(X): X_std = ()mean = (axis= 0) std = (axis= 0)

# 做除法运算时请永远记住分母不能等于 0 的情形# X_std = (X - (axis=0)) / (axis=0) forcol inrange((X)[ 1]): ifstd[col]: X_std[:, col] = (X_std[:, col] - mean[col]) / std[col]returnX_std

# 划分数据集为训练集和测试集deftrain_test_split(X, y, test_size= 0.2, shuffle=True, seed=None) : ifshuffle: X, y = shuffle_data(X, y, seed)n_train_samples = int([ 0] * ( 1-test_size)) x_train, x_test = X[:n_train_samples], X[n_train_samples:]y_train, y_test = y[:n_train_samples], y[n_train_samples:]returnx_train, x_test, y_train, y_test

# 计算矩阵 X 的协方差矩阵defcalculate_covariance_matrix(X, Y= ( ( 0, 0) ) ) : ifnotY.any: Y = Xn_samples = (X)[ 0] covariance_matrix = ( 1/ (n_samples -1)) * (X - (axis= 0)).(Y - Y.mean(axis= 0)) returnnp.array(covariance_matrix, dtype=float)

# 计算数据集 X 每列的方差defcalculate_variance(X): n_samples = (X)[ 0] variance = ( 1/ n_samples) * ((X - (axis= 0)).(X - (axis= 0))) returnvariance

# 计算数据集 X 每列的标准差defcalculate_std_dev(X): std_dev = (calculate_variance(X))returnstd_dev

# 计算相关系数矩阵defcalculate_correlation_matrix(X, Y= ([ 0]) ) : # 先计算协方差矩阵covariance_matrix = calculate_covariance_matrix(X, Y)# 计算 X, Y 的标准差std_dev_X = (calculate_std_dev(X), 1) std_dev_y = (calculate_std_dev(Y), 1) correlation_matrix = (covariance_matrix, ())returnnp.array(correlation_matrix, dtype=float)

classPCA: """主成份分析算法 PCA,非监督学习算法."""def__init__(self): = None = None = 2

deftransform(self, X): """ 将原始数据集 X 通过 PCA 进行降维"""covariance = calculate_covariance_matrix(X)

# 求解特征值和特征向量, = np.linalg.eig(covariance)

# 将特征值从大到小进行排序,注意特征向量是按列排的,即 第 k 列是 中第 k 个特征值对应的特征向量idx = .argsort[:: -1] eigenvalues = [idx][:]eigenvectors = [:, idx][:, :]

# 将原始数据集 X 映射到低维空间X_transformed = (eigenvectors)returnX_transformed

defmain: # Load the datasetdata = datasets.load_irisX = data.datay = data.target

# 将数据集 X 映射到低维空间X_trans = (X)

x1 = X_trans[:, 0] x2 = X_trans[:, 1]

cmap = ( 'viridis') colors = [cmap(i) fori innp.linspace( 0, 1, len((y)))]

class_distr = []# Plot the different class distributionsfori, l inenumerate((y)): _x1 = x1[y == l]_x2 = x2[y == l]_y = y[y == l]((_x1, _x2, color=colors[i]))

# Add a legendplt.legend(class_distr, y, loc= 1)

# Axis labelsplt.xlabel( 'Principal Component 1') ( 'Principal Component 2') plt.show

if__name__ == "__main__": main

最终,我们将得到降维结果如下。其中,如果得到当特征数 (D) 远大于样本数 (N) 时,可以使用一点小技巧实现 PCA 算法的复杂度转换。

c57718d64abb345379ec4d6db7b307ca.png

PCA 降维算法展示

当然,这一算法虽然经典且较为常用,其不足之处也非常明显。它可以很好的解除线性相关,但是面对高阶相关性时,效果则较差;同时,PCA 实现的前提是假设数据各主特征是分布在正交方向上,因此对于在非正交方向上存在几个方差较大的方向,PCA 的效果也会大打折扣。

四、其它降维算法及代码地址

KPCA(kernel PCA)

KPCA 是核技术与 PCA 结合的产物,它与 PCA 主要差别在于计算协方差矩阵时使用了核函数,即是经过核函数映射之后的协方差矩阵。

引入核函数可以很好的解决非线性数据映射问题。kPCA 可以将非线性数据映射到高维空间,在高维空间下使用标准 PCA 将其映射到另一个低维空间。

8f39167301eb9a97401c37df37b9c07b.png

KPCA 降维算法展示

详细内容可参见 《Python 机器学习》之特征抽取——kPCA:

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/blob/master/codes/PCA/KPCA.py

LDA(Linear Discriminant Analysis)

LDA 是一种可作为特征抽取的技术,其目标是向最大化类间差异,最小化类内差异的方向投影,以利于分类等任务即将不同类的样本有效的分开。LDA 可以提高数据分析过程中的计算效率,对于未能正则化的模型,可以降低维度灾难带来的过拟合。

0e58c3cea7aa86c6ddf7f4814bc0769c.png

LDA 降维算法展示

详细内容可参见《数据降维—线性判别分析(LDA)》:

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/tree/master/codes/LDA

MDS(multidimensional scaling)

MDS 即多维标度分析,它是一种通过直观空间图表示研究对象的感知和偏好的传统降维方法。该方法会计算任意两个样本点之间的距离,使得投影到低维空间之后能够保持这种相对距离从而实现投影。

由于 sklearn 中 MDS 是采用迭代优化方式,下面实现了迭代和非迭代的两种。

783b2a8388b025521613bd5347bf9ee6.png

MDS 降维算法展示

详细内容可参见《MDS 算法》

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/tree/master/codes/MDS

ISOMAP

Isomap 即等度量映射算法,该算法可以很好地解决 MDS 算法在非线性结构数据集上的弊端。

MDS 算法是保持降维后的样本间距离不变,Isomap 算法则引进了邻域图,样本只与其相邻的样本连接,计算出近邻点之间的距离,然后在此基础上进行降维保距。

b9992fcec24e59f292dc72c7bf19fd90.png

ISOMAP 降维算法展示

详细内容可参见《Isomap》

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/tree/master/codes/ISOMAP

LLE(locally linear embedding)

LLE(locally linear embedding)LLE 即局部线性嵌入算法,它是一种非线性降维算法。该算法核心思想为每个点可以由与它相邻的多个点的线性组合而近似重构,然后将高维数据投影到低维空间中,使其保持数据点之间的局部线性重构关系,即有相同的重构系数。在处理所谓的流形降维的时候,效果比 PCA 要好很多。

f103c32b62d053d8e70401ecb0cd4343.png

LLE 降维算法展示

详细内容可参见《LLE 原理及推导过程》

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/tree/master/codes/LLE

t-SNE

t-SNE 也是一种非线性降维算法,非常适用于高维数据降维到 2 维或者 3 维进行可视化。它是一种以数据原有的趋势为基础,重建其在低纬度(二维或三维)下数据趋势的无监督机器学习算法。

下面的结果展示参考了源代码,同时也可用 tensorflow 实现(无需手动更新参数)。

1167e89c322cc9c14a6843c22325bd19.png

t-SNE 降维算法展示

详细内容可参见《t-SNE 使用过程中的一些坑》:

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/tree/master/codes/T-SNE

LE(Laplacian Eigenmaps)

LE 即拉普拉斯特征映射,它与 LLE 算法有些相似,也是以局部的角度去构建数据之间的关系。它的直观思想是希望相互间有关系的点(在图中相连的点)在降维后的空间中尽可能的靠近;以这种方式,可以得到一个能反映流形的几何结构的解。

5c6f4ee8e02ce3e4cdc86dbbdea85c82.png

LE 降维算法展示

详细内容可参见《拉普拉斯特征图降维及其 python 实现》:

代码地址:

https://github.com/heucoder/dimensionality_reduction_alo_codes/tree/master/codes/LE

LPP(Locality Preserving Projections)

LPP 即局部保留投影算法,其思路和拉普拉斯特征映射类似,核心思想为通过最好的保持一个数据集的邻居结构信息来构造投影映射,但 LPP 不同于 LE 的直接得到投影结果,它需要求解投影矩阵。

4d086246e3d089618d8f58c4e7dfad95.png

LPP 降维算法展示

详情请参见《局部保留投影算法 (LPP) 详解》:

代码地址:

编辑 ∑Gemini

来源:AI有道返回搜狐,查看更多

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号