当前位置:   article > 正文

Python机器学习14——聚类分析_python聚类分析

python聚类分析

本系列所有的代码和数据都可以从陈强老师的个人主页上下载:Python数据程序

参考书目:陈强.机器学习及Python应用. 北京:高等教育出版社, 2021.

本系列基本不讲数学原理,只从代码角度去让读者们利用最简洁的Python代码实现机器学习方法。


聚类分析也是无监督学习,从X里面寻找规律将样本分别归为不同的类。K均值聚类是最常见的聚类法,它运行速度快,适合大数据。分层聚类得到的结果更清晰,但是不合适大数据(运算过慢)


K均值聚类的Python案例

使用模拟数据进行聚类,模拟数据的好处在于我们知道真实的样本的类别

  1. #K-Means Clustering
  2. import numpy as np
  3. import pandas as pd
  4. import matplotlib.pyplot as plt
  5. import seaborn as sns
  6. from sklearn.cluster import KMeans
  7. from sklearn.cluster import AgglomerativeClustering
  8. from sklearn.preprocessing import StandardScaler
  9. from mpl_toolkits.mplot3d import Axes3D
  10. from scipy.cluster.hierarchy import linkage, dendrogram, fcluster
  11. from scipy.spatial.distance import squareform

生成两组数据,可视化

  1. np.random.seed(1)
  2. cluster1 = np.random.normal(0, 1, 100).reshape(-1, 2)
  3. cluster1 = pd.DataFrame(cluster1, columns=['x1', 'x2'])
  4. cluster1['y'] = 0
  5. cluster1.head()
  6. np.random.seed(10)
  7. cluster2 = np.random.normal(3, 1, 100).reshape(-1, 2)
  8. cluster2 = pd.DataFrame(cluster2, columns=['x1', 'x2'])
  9. cluster2['y'] = 1
  10. cluster2.head()
  11. data = pd.concat([cluster1, cluster2])
  12. data.shape
  13. sns.scatterplot(x='x1', y='x2', data=cluster1, color='k', label='y=0')
  14. sns.scatterplot(x='x1', y='x2', data=cluster2, color='b', label='y=1')
  15. plt.legend()
  16. plt.title('True Clusters (K=2)')

 取出X和y,进行K均值聚类

  1. X = data.iloc[:, :-1]
  2. y = data.iloc[:, -1]
  3. model = KMeans(n_clusters=2, random_state=123, n_init=20)
  4. model.fit(X)
  5. #查看聚类标签
  6. model.labels_
  7. #查看聚类中心
  8. model.cluster_centers_
  9. #查看组内平方和
  10. model.inertia_
  11. #画混淆矩阵
  12. pd.crosstab(y, model.labels_, rownames=['Actual'], colnames=['Predicted'])

 结果可视化

  1. sns.scatterplot(x='x1', y='x2', data=data[model.labels_ == 0], color='k', label='y=0')
  2. sns.scatterplot(x='x1', y='x2', data=data[model.labels_ == 1], color='b', label='y=1')
  3. plt.legend()
  4. plt.title('Estimated Clusters (K=2)')

 将数据聚为三类

  1. model = KMeans(n_clusters=3, random_state=2, n_init=20)
  2. model.fit(X)
  3. model.labels_
  4. sns.scatterplot(x='x1', y='x2', data=data[model.labels_ == 0], color='k', label='y=0')
  5. sns.scatterplot(x='x1', y='x2', data=data[model.labels_ == 1], color='b', label='y=1')
  6. sns.scatterplot(x='x1', y='x2', data=data[model.labels_ == 2], color='cornflowerblue', label='y=2')
  7. plt.legend()
  8. plt.title('Estimated Clusters (K=3)')

 聚类的数目K如何取值,可以使用手肘法判断,即聚类个数K让误差快速下降的位置,则可以取K,误差为mse,手工循环,寻找最优聚类个数K

  1. # Choose optimal K by elbow method
  2. sse = []
  3. for k in range(1,16):
  4. model = KMeans(n_clusters=k, random_state=1, n_init=20)
  5. model.fit(X)
  6. sse.append(model.inertia_)
  7. print(sse)
  8. #画图
  9. plt.plot(range(1, 16), sse, 'o-')
  10. plt.axhline(sse[1], color='k', linestyle='--', linewidth=1)
  11. plt.xlabel('K')
  12. plt.ylabel('SSE')
  13. plt.title('K-means Clustering')

K从1到2下降速度最快,后面没有明显的拐点,k选2最佳

还可以利用AIC个BIC信息准则去挑选(传统统计学方法,如今用得少,效果也不太行)

  1. #AIC
  2. # Choose optimal K by AIC
  3. aic = sse + 2 * 2 * np.arange(1, 16)
  4. aic
  5. min(aic)
  6. np.argmin(aic)
  7. plt.plot(range(1, 16), aic, 'o-')
  8. plt.axvline(np.argmin(aic) + 1, color='k', linestyle='--', linewidth=1)
  9. plt.xlabel('K')
  10. plt.ylabel('AIC')
  11. plt.title('K-means Clustering')
  12. #BIC
  13. # Choose optimal K by BIC
  14. bic = sse + 2 * np.log(100) * np.arange(1, 16)
  15. bic
  16. min(bic)
  17. np.argmin(bic)
  18. plt.plot(range(1, 16), bic, 'o-')
  19. plt.axvline(np.argmin(bic) + 1, color='k', linestyle='--', linewidth=1)
  20. plt.xlabel('K')
  21. plt.ylabel('BIC')
  22. plt.title('K-means Clustering')

 

 AIC说选12个,BIC说选6个,和真实的2个差的有点远...

下面采用鸢尾花数据集三个特征变量进行聚类,可以在三维空间图里面可视化

  1. iris = pd.read_csv('iris.csv')
  2. Dict = {'setosa': 0, 'versicolor': 1, 'virginica': 2}
  3. iris.species = iris.species.map(Dict)
  4. fig = plt.figure()
  5. ax = fig.add_subplot(111, projection='3d')
  6. ax.scatter(iris['sepal_length'], iris['sepal_width'],
  7. iris['petal_length'], c=iris['species'], cmap='rainbow')
  8. ax.set_xlabel('sepal_length')
  9. ax.set_ylabel('sepal_width')
  10. ax.set_zlabel('petal_length')

 

 聚类

  1. # K-means clustering with K=3
  2. X3= iris.iloc[:, :3]
  3. model = KMeans(n_clusters=3, random_state=1, n_init=20)
  4. model.fit(X3)
  5. model.labels_
  6. labels = pd.DataFrame(model.labels_, columns=['label'])
  7. d = {0: 0, 1: 2,2:1}
  8. pred = labels.label.map(d)
  9. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  10. table
  11. accuracy = np.trace(table) / len(iris)
  12. accuracy

误差不多,聚类结果不错

  1. fig = plt.figure()
  2. ax = fig.add_subplot(111, projection='3d')
  3. ax.scatter(iris['sepal_length'], iris['sepal_width'],
  4. iris['petal_length'], c=pred, cmap='rainbow')
  5. ax.set_xlabel('sepal_length')
  6. ax.set_ylabel('sepal_width')
  7. ax.set_zlabel('petal_length')

 


分层聚类Python案例

继续使用鸢尾花数据集,进行不同距离度量的分层聚类。

  1. iris = pd.read_csv('iris.csv')
  2. X = iris.iloc[:, :-1]
  3. X.shape
  4. X.head()

X特征变量

最大值距离

  1. # Complete linkage
  2. linkage_matrix = linkage(X, 'complete')
  3. linkage_matrix.shape
  4. fig = plt.figure(figsize=(16,6))
  5. dendrogram(linkage_matrix)
  6. plt.title('Complete Linkage')

 

  1. model = AgglomerativeClustering(n_clusters=3, linkage='complete')
  2. model.fit(X)
  3. model.labels_
  4. labels = pd.DataFrame(model.labels_, columns=['label'])
  5. d = {0: 2, 1: 0, 2: 1}
  6. pred = labels['label'].map(d)
  7. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  8. table
  9. accuracy = np.trace(table) / len(iris)
  10. accuracy
  11. #0.84

平均距离

  1. # Average linkage
  2. linkage_matrix = linkage(X, 'average')
  3. fig = plt.figure(figsize=(16,6))
  4. dendrogram(linkage_matrix)
  5. plt.title('Average Linkage')

  1. model = AgglomerativeClustering(n_clusters=3, linkage='average')
  2. model.fit(X)
  3. model.labels_
  4. labels = pd.DataFrame(model.labels_, columns=['label'])
  5. d = {0: 1, 1: 0, 2: 2}
  6. pred = labels['label'].map(d)
  7. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  8. table
  9. accuracy = np.trace(table) / len(iris)
  10. accuracy
  11. #0.9066

 最小距离

  1. # Single linkage
  2. linkage_matrix = linkage(X, 'single')
  3. dendrogram(linkage_matrix)
  4. plt.title('Single Linkage')

  1. model = AgglomerativeClustering(n_clusters=3, linkage='single')
  2. model.fit(X)
  3. model.labels_
  4. labels = pd.DataFrame(model.labels_, columns=['label'])
  5. d = {0: 1, 1: 0, 2: 2}
  6. pred = labels['label'].map(d)
  7. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  8. table
  9. accuracy = np.trace(table) / len(iris)
  10. accuracy
  11. #0.68

中心距离 

  1. # Centroid linkage
  2. linkage_matrix = linkage(X, 'centroid')
  3. dendrogram(linkage_matrix)
  4. plt.title('Centroid Linkage')

  1. labels = fcluster(linkage_matrix, t=3, criterion='maxclust')
  2. labels
  3. labels = pd.DataFrame(labels, columns=['label'])
  4. d = {1: 0, 2: 2, 3: 1}
  5. pred = labels['label'].map(d)
  6. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  7. table
  8. accuracy = np.trace(table) / len(iris)
  9. accuracy
  10. #0.9066

 离差平方和

  1. #'ward linkage
  2. linkage_matrix = linkage(X, 'ward')
  3. dendrogram(linkage_matrix)
  4. plt.title('ward Linkage')

  1. model = AgglomerativeClustering(n_clusters=3, linkage='ward')
  2. model.fit(X)
  3. model.labels_
  4. labels = pd.DataFrame(model.labels_, columns=['label'])
  5. d = {0: 1, 1: 0, 2: 2}
  6. pred = labels['label'].map(d)
  7. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  8. table
  9. accuracy = np.trace(table) / len(iris)
  10. accuracy
  11. #0.89333

相关系数 

  1. ## Correlation-based distance measure
  2. dist_matrix = 1 - np.corrcoef(X)
  3. dist_matrix.shape
  4. dist_matrix[:3, :3]
  5. sns.clustermap(dist_matrix, cmap='Blues')

  1. dist = squareform(dist_matrix, checks=False)
  2. dist.shape
  3. linkage_matrix = linkage(dist, 'centroid')
  4. dendrogram(linkage_matrix)
  5. plt.title('Correlated-based Centroid Linkage')

 

  1. labels = fcluster(linkage_matrix, t=3, criterion='maxclust')
  2. labels
  3. labels = pd.DataFrame(labels, columns=['label'])
  4. d = {1: 0, 2: 2, 3: 1}
  5. pred = labels['label'].map(d)
  6. table = pd.crosstab(iris.species, pred, rownames=['Actual'], colnames=['Predicted'])
  7. table
  8. accuracy = np.trace(table) / len(iris)
  9. accuracy
  10. #0.94666

其他聚类方法

  1. from sklearn.preprocessing import StandardScaler
  2. from sklearn.datasets import make_classification
  3. # 原来的综合分类数据集
  4. #from numpy import where
  5. # 定义数据集
  6. X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  7. # 为每个类的样本创建散点图
  8. for class_value in range(2):
  9. # 获取此类的示例的行索引
  10. row_ix =np.where(y == class_value)
  11. # 创建这些样本的散布
  12. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  13. plt.legend(range(2),frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  14. # 绘制散点图
  15. plt.show()

  1. # 亲和力传播聚类
  2. ##亲和力传播包括找到一组最能概括数据的范例。
  3. #我们设计了一种名为“亲和传播”的方法,它作为两对数据点之间相似度的输入度量。在数据点之间交换实值消息,直到一组高质量的范例和相应的群集逐渐出现
  4. #它是通过 AffinityPropagation 类实现的,要调整的主要配置是将“ 阻尼 ”设置为0.5到1,甚至可能是“首选项”。
  5. # 定义数据集
  6. from sklearn.cluster import AffinityPropagation
  7. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  8. model = AffinityPropagation(damping=0.9)
  9. model.fit(X)
  10. labels = pd.DataFrame(model.labels_, columns=['label'])
  11. d={0:1,1:0}
  12. #labels.label=labels.label.map(d)
  13. clusters = np.unique(model.labels_)
  14. # 为每个群集的样本创建散点图
  15. for cluster in clusters:
  16. # 获取此群集的示例的行索引
  17. row_ix = np.where(labels.label== cluster)
  18. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  19. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  20. plt.show()

 

  1. #聚合聚类
  2. #聚合聚类涉及合并示例,直到达到所需的群集数量为止。
  3. #它是层次聚类方法的更广泛类的一部分,通过 AgglomerationClustering 类实现的,主要配置是n _ clusters集,这是对数据中的群集数量的估计。
  4. # 聚合聚类
  5. from sklearn.cluster import AgglomerativeClustering
  6. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  7. model = AgglomerativeClustering(n_clusters=2)
  8. model.fit(X)
  9. labels = pd.DataFrame(model.labels_, columns=['label'])
  10. d={0:1,1:0}
  11. labels.label=labels.label.map(d)
  12. # 检索唯一群集
  13. clusters = np.unique(model.labels_)
  14. # 为每个群集的样本创建散点图
  15. for cluster in clusters:
  16. # 获取此群集的示例的行索引
  17. row_ix = np.where(labels.label == cluster)
  18. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  19. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  20. plt.show()

 

  1. #BIRCH
  2. #BIRCH 聚类( BIRCH 是平衡迭代减少的缩写,聚类使用层次结构)包括构造一个树状结构,从中提取聚类质心。
  3. #BIRCH 递增地和动态地群集传入的多维度量数据点,以尝试利用可用资源(即可用内存和时间约束)产生最佳质量的聚类。
  4. #它是通过 Birch 类实现的,主要配置是“ threshold ”和“ n _ clusters ”超参数,后者提供了群集数量的估计。
  5. # birch聚类
  6. from sklearn.cluster import Birch
  7. # 定义数据集
  8. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  9. model = Birch(threshold=0.01, n_clusters=2)
  10. model.fit(X)
  11. labels = pd.DataFrame(model.labels_, columns=['label'])
  12. d={0:1,1:0}
  13. labels.label=labels.label.map(d)
  14. # 检索唯一群集
  15. clusters = np.unique(model.labels_)
  16. # 为每个群集的样本创建散点图
  17. for cluster in clusters:
  18. # 获取此群集的示例的行索引
  19. row_ix = np.where(labels.label == cluster)
  20. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  21. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  22. plt.show()

  1. #DBSCAN 聚类(其中 DBSCAN 是基于密度的空间聚类的噪声应用程序)涉及在域中寻找高密度区域,并将其周围的特征空间区域扩展为群集。
  2. #我们提出了新的聚类算法 DBSCAN 依赖于基于密度的概念的集群设计,以发现任意形状的集群。DBSCAN 只需要一个输入参数,并支持用户为其确定适当的值
  3. #它是通过 DBSCAN 类实现的,主要配置是“ eps ”和“ min _ samples ”超参数。
  4. # dbscan 聚类
  5. from sklearn.cluster import DBSCAN
  6. # 定义数据集
  7. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  8. model = DBSCAN(eps=0.30, min_samples=9)
  9. model.fit(X)
  10. labels = pd.DataFrame(model.labels_, columns=['label'])
  11. d={0:1,1:0,-1:-1}
  12. labels.label=labels.label.map(d)
  13. # 检索唯一群集
  14. clusters = np.unique(model.labels_)
  15. # 为每个群集的样本创建散点图
  16. for cluster in clusters:
  17. # 获取此群集的示例的行索引
  18. row_ix = np.where(labels.label== cluster)
  19. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  20. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  21. plt.show()

  1. #Mini-Batch K-均值
  2. #Mini-Batch K-均值是 K-均值的修改版本,它使用小批量的样本而不是整个数据集对群集质心进行更新,这可以使大数据集的更新速度更快,并且可能对统计噪声更健壮。
  3. #我们建议使用 k-均值聚类的迷你批量优化。与经典批处理算法相比,这降低了计算成本的数量级,同时提供了比在线随机梯度下降更好的解决方案。
  4. #它是通过 MiniBatchKMeans 类实现的,要优化的主配置是“ n _ clusters ”超参数,设置为数据中估计的群集数量。
  5. # mini-batch k均值聚类
  6. from sklearn.cluster import MiniBatchKMeans
  7. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  8. model = MiniBatchKMeans(n_clusters=2)
  9. model.fit(X)
  10. labels = pd.DataFrame(model.labels_, columns=['label'])
  11. d={0:1,1:0}
  12. labels.label=labels.label.map(d)
  13. clusters = np.unique(model.labels_)
  14. for cluster in clusters:
  15. row_ix = np.where(labels.label== cluster)
  16. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  17. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  18. plt.show()

 

  1. #均值漂移聚类
  2. #均值漂移聚类涉及到根据特征空间中的实例密度来寻找和调整质心。
  3. #对离散数据证明了递推平均移位程序收敛到最接近驻点的基础密度函数,从而证明了它在检测密度模式中的应用。
  4. #它是通过 MeanShift 类实现的,主要配置是“带宽”超参数。
  5. # 均值漂移聚类
  6. from sklearn.cluster import MeanShift
  7. # 定义数据集
  8. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  9. # 定义模型
  10. model = MeanShift()
  11. model.fit(X)
  12. labels = pd.DataFrame(model.labels_, columns=['label'])
  13. d={0:1,1:0}
  14. #labels.label=labels.label.map(d)
  15. clusters = np.unique(model.labels_)
  16. for cluster in clusters:
  17. row_ix = np.where(labels.label== cluster)
  18. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  19. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  20. plt.show()

 

  1. #OPTICS
  2. #OPTICS 聚类( OPTICS 短于订购点数以标识聚类结构)是上述 DBSCAN 的修改版本。
  3. #我们为聚类分析引入了一种新的算法,它不会显式地生成一个数据集的聚类;而是创建表示其基于密度的聚类结构的数据库的增强排序。此群集排序包含相当于密度聚类的信息,该信息对应于范围广泛的参数设置。
  4. #它是通过 OPTICS 类实现的,主要配置是“ eps ”和“ min _ samples ”超参数。
  5. # optics聚类
  6. from sklearn.cluster import OPTICS
  7. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  8. model = OPTICS(eps=0.8, min_samples=10)
  9. model.fit(X)
  10. labels = pd.DataFrame(model.labels_, columns=['label'])
  11. d={0:1,1:0}
  12. #labels.label=labels.label.map(d)
  13. clusters = np.unique(model.labels_)
  14. for cluster in clusters:
  15. row_ix = np.where(labels.label== cluster)
  16. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  17. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  18. plt.show()

 

  1. #光谱聚类是一类通用的聚类方法,取自线性线性代数。
  2. #最近在许多领域出现的一个有希望的替代方案是使用聚类的光谱方法。这里,使用从点之间的距离导出的矩阵的顶部特征向量。
  3. #它是通过Spectral聚类类实现的,而主要的Spectral聚类是一个由聚类方法组成的通用类,
  4. #取自线性线性代数要优化的是 “n _ clusters” 超参数,用于指定数据中的估计群集数量。
  5. # spectral clustering
  6. from sklearn.cluster import SpectralClustering
  7. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  8. model = SpectralClustering(n_clusters=2)
  9. model.fit(X)
  10. labels = pd.DataFrame(model.labels_, columns=['label'])
  11. d={0:1,1:0}
  12. labels.label=labels.label.map(d)
  13. clusters = np.unique(model.labels_)
  14. for cluster in clusters:
  15. row_ix = np.where(labels.label== cluster)
  16. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  17. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  18. plt.show()

  1. #高斯混合模型
  2. #高斯混合模型总结了一个多变量概率密度函数,顾名思义就是混合了高斯概率分布。
  3. #它是通过 Gaussian Mixture 类实现的,要优化的主要配置是“ n _ clusters ”超参数,用于指定数据中估计的群集数量。
  4. # 高斯混合模型
  5. from sklearn.mixture import GaussianMixture
  6. X, _ = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=4)
  7. model = GaussianMixture(n_components=2)
  8. model.fit(X)
  9. yhat = model.predict(X)
  10. labels = pd.DataFrame(yhat, columns=['label'])
  11. d={0:1,1:0}
  12. labels.label=labels.label.map(d)
  13. clusters = np.unique(yhat)
  14. for cluster in clusters:
  15. row_ix = np.where(labels.label== cluster)
  16. plt.scatter(X[row_ix, 0], X[row_ix, 1])
  17. plt.legend(clusters,frameon=False,bbox_to_anchor=(1, 0), loc=3, borderaxespad=0)
  18. plt.show()

 

 

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号