当前位置:   article > 正文

K-means[np.argwhere/图片压缩/kmeans.cluster_centers_]_cluster centers

cluster centers

K均值算法(K-means)聚类

【关键词】K个种子,均值

一、K-means算法原理

聚类的概念:一种无监督的学习,事先不知道类别,自动将相似的对象归到同一个簇中。

K-Means算法是一种聚类分析(cluster analysis)的算法,其主要是来计算数据聚集的算法,主要通过不断地取离种子点最近均值的算法。

K-Means算法主要解决的问题如下图所示。我们可以看到,在图的左边有一些点,我们用肉眼可以看出来有四个点群,但是我们怎么通过计算机程序找出这几个点群来呢?于是就出现了我们的K-Means算法

这个算法其实很简单,如下图所示:

从上图中,我们可以看到,A,B,C,D,E是五个在图中点。而灰色的点是我们的种子点,也就是我们用来找点群的点。有两个种子点,所以K=2。

然后,K-Means的算法如下:

  1. 随机在图中取K(这里K=2)个种子点。
  2. 然后对图中的所有点求到这K个种子点的距离,假如点Pi离种子点Si最近,那么Pi属于Si点群。(上图中,我们可以看到A,B属于上面的种子点,C,D,E属于下面中部的种子点)
  3. 接下来,我们要移动种子点到属于他的“点群”的中心。(见图上的第三步)
  4. 然后重复第2)和第3)步,直到,种子点没有移动(我们可以看到图中的第四步上面的种子点聚合了A,B,C,下面的种子点聚合了D,E)。

这个算法很简单,重点说一下“求点群中心的算法”:欧氏距离(Euclidean Distance):差的平方和的平方根

K-Means主要最重大的缺陷——都和初始值有关:

K是事先给定的,这个K值的选定是非常难以估计的。很多时候,事先并不知道给定的数据集应该分成多少个类别才最合适。(ISODATA算法通过类的自动合并和分裂,得到较为合理的类型数目K)

K-Means算法需要用初始随机种子点来搞,这个随机种子点太重要,不同的随机种子点会有得到完全不同的结果。(K-Means++算法可以用来解决这个问题,其可以有效地选择初始点)

总结:K-Means算法步骤:

  1. 从数据中选择k个对象作为初始聚类中心;
  2. 计算每个聚类对象到聚类中心的距离来划分;
  3. 再次计算每个聚类中心
  4. 计算标准测度函数,直到达到最大迭代次数,则停止,否则,继续操作。
  5. 确定最优的聚类中心

K-Means算法应用

看到这里,你会说,K-Means算法看来很简单,而且好像就是在玩坐标点,没什么真实用处。而且,这个算法缺陷很多,还不如人工呢。是的,前面的例子只是玩二维坐标点,的确没什么意思。但是你想一下下面的几个问题:

1)如果不是二维的,是多维的,如5维的,那么,就只能用计算机来计算了。

2)二维坐标点的X,Y 坐标,其实是一种向量,是一种数学抽象。现实世界中很多属性是可以抽象成向量的,比如,我们的年龄,我们的喜好,我们的商品,等等,能抽象成向量的目的就是可以让计算机知道某两个属性间的距离。如:我们认为,18岁的人离24岁的人的距离要比离12岁的距离要近,鞋子这个商品离衣服这个商品的距离要比电脑要近,等等。

二、实战

重要参数:

  • n_clusters:聚类的个数

重要属性:

  • clustercenters : [n_clusters, n_features]的数组,表示聚类中心点的坐标
  • labels_ : 每个样本点的标签

1、聚类实例

导包,使用make_blobs生成随机点cluster_std

  1. from sklearn.cluster import KMeans
  2. import numpy as np
  3. import sklearn.datasets as datasets
  4. import matplotlib.pyplot as plt
  5. %matplotlib inline

数据集

  1. X,y = datasets.make_blobs()
  2. display(X.shape,y.shape)
  3. Out:
  4. (100, 2)
  5. (100,)
  6. plt.scatter(X[:,0],X[:,1],c = y)

建立模型,训练数据,并进行数据预测,使用相同数据:

KMeans的原理较为简单:以某种相似性度量为标准,确定样本的结构,即样本属于哪一个簇取决于该样本与哪一个簇的中心点最相似。

K-Means类主要参数 :

  • 1) n_clusters: 即k值,一般需要多试一些值以获得较好的聚类效果。k值好坏的评估标准在下面会讲。 
  • 2)max_iter: 最大的迭代次数,一般如果是凸数据集的话可以不管这个值,如果数据集不是凸的,可能很难收敛,此时可以指定最大的迭代次数让算法可以及时退出循环。 
  • 3)n_init:用不同的初始化质心运行算法的次数。由于K-Means是结果受初始值影响的局部最优的迭代算法,因此需要多跑几次以选择一个较好的聚类效果,默认是10,一般不需要改。如果你的k值较大,则可以适当增大这个值。 
  • 4)init: 即初始值选择的方式,可以为完全随机选择’random’,优化过的’k-means++’或者自己指定初始化的k个质心。一般建议使用默认的’k-means++’。 
  • 5)algorithm:有“auto”, “full” or “elkan”三种选择。”full”就是我们传统的K-Means算法, “elkan”是(机器学习(25)之K-Means聚类算法详解)原理篇讲的elkan K-Means算法。默认的”auto”则会根据数据值是否是稀疏的,来决定如何选择”full”和“elkan”。一般数据是稠密的,那么就是 “elkan”,否则就是”full”。一般来说建议直接用默认的”auto”
  1. '''KMeans(n_clusters=8, init='k-means++', n_init=10, max_iter=300, tol=0.0001,
  2. precompute_distances='auto', verbose=0, random_state=None, copy_x=True, n_jobs=1,
  3. algorithm='auto') '''
  4. kmeans = KMeans(n_clusters=3)
  5. # 无监督学习
  6. kmeans.fit(X)
  7. Out:
  8. KMeans(algorithm='auto', copy_x=True, init='k-means++', max_iter=300,
  9. n_clusters=3, n_init=10, n_jobs=1, precompute_distances='auto',
  10. random_state=None, tol=0.0001, verbose=0)
  11. y_ = kmeans.predict(X)
  12. y_
  13. Out:
  14. array([2, 1, 1, 2, 0, 2, 0, 2, 2, 1, 1, 0, 2, 1, 1, 0, 0, 2, 0, 2, 0, 0,
  15. 0, 1, 2, 0, 0, 2, 2, 0, 1, 0, 0, 0, 1, 2, 0, 0, 2, 2, 1, 1, 0, 1,
  16. 2, 0, 1, 1, 1, 1, 0, 0, 2, 1, 2, 2, 0, 1, 0, 2, 1, 2, 1, 0, 0, 1,
  17. 2, 1, 2, 1, 1, 2, 0, 1, 0, 0, 2, 1, 0, 0, 2, 0, 1, 1, 2, 2, 1, 1,
  18. 1, 2, 2, 2, 1, 2, 0, 0, 2, 1, 0, 2])

无监督的情况下进行计算,预测 现在机器学习没有目标

绘制图形,显示聚类结果kmeans.cluster_centers

 

2、 实战,三问中国足球几多愁?

导包

import pandas as pd'
运行

数据集

  1. X = pd.read_csv('../data/AsiaZoo.txt',header=None)
  2. X

导包,3D图像需导包:from mpl_toolkits.mplot3d import Axes3D
读取数据

列名修改为:"国家","2006世界杯","2010世界杯","2007亚洲杯"

  1. X.columns = ["国家","2006世界杯","2010世界杯","2007亚洲杯"]
  2. X

 

使用K-Means进行数据处理,对亚洲球队进行分组,分三组

  1. kmeans = KMeans(3)
  2. kmeans.fit(X.iloc[:,1:])
  3. Out:
  4. KMeans(algorithm='auto', copy_x=True, init='k-means++', max_iter=300,
  5. n_clusters=3, n_init=10, n_jobs=1, precompute_distances='auto',
  6. random_state=None, tol=0.0001, verbose=0)
  7. y_ = kmeans.predict(X.iloc[:,1:])
  8. y_
  9. Out:
  10. array([0, 1, 1, 2, 2, 0, 0, 0, 2, 0, 0, 0, 2, 2, 0])
  11. X['国家']
  12. Out:
  13. 0 中国
  14. 1 日本
  15. 2 韩国
  16. 3 伊朗
  17. 4 沙特
  18. 5 伊拉克
  19. 6 卡塔尔
  20. 7 阿联酋
  21. 8 乌兹别克斯坦
  22. 9 泰国
  23. 10 越南
  24. 11 阿曼
  25. 12 巴林
  26. 13 朝鲜
  27. 14 印尼
  28. Name: 国家, dtype: object

for循环打印输出分组后的球队,argwhere()

  1. np.argwhere(y_ == 1)
  2. Out:
  3. array([[1],
  4. [2]], dtype=int64)
  5. for i in range(3):
  6. index = np.argwhere(y_ == i).reshape(-1)
  7. print(X['国家'][index].values)
  8. print('---------------------------------------------')
  9. ['中国' '伊拉克' '卡塔尔' '阿联酋' '泰国' '越南' '阿曼' '印尼']
  10. ---------------------------------------------
  11. ['日本' '韩国']
  12. ---------------------------------------------
  13. ['伊朗' '沙特' '乌兹别克斯坦' '巴林' '朝鲜']
  14. ---------------------------------------------

绘制三维立体图形,ax = plt.subplot(projection = '3d')
ax.scatter3D()

略……

 

3、聚类实践与常见错误

第一种错误:k值不合适,make_blobs默认中心点三个

 

第二种错误:数据偏差
trans = [[0.6,-0.6],[-0.4,0.8]]
X2 = np.dot(X,trans)

  1. trans = [[0.6,-0.6],[-0.4,0.8]]
  2. X2 = np.dot(X,trans)
  3. X2.shape
  4. Out:(100, 2)
  5. # y.shape=(100,)
  6. plt.scatter(X2[:,0],X2[:,1],c = y)

  1. kmeans = KMeans(3)
  2. kmeans.fit(X2)
  3. y_ = kmeans.predict(X2)
  4. plt.scatter(X2[:,0],X2[:,1],c = y_)

X2 = X点乘trans
X2点乘trans逆矩阵

  1. X3 = np.dot(X2,np.linalg.inv(trans))
  2. plt.scatter(X3[:,0],X3[:,1],c = y)

第三个错误:标准偏差不相同cluster_std

  1. X,y = datasets.make_blobs(cluster_std=[1.0,1.0,8])
  2. plt.scatter(X[:,0],X[:,1],c = y)

  1. kmeans = KMeans(3)
  2. kmeans.fit(X)
  3. y_ = kmeans.predict(X)
  4. plt.scatter(X[:,0],X[:,1],c = y_)

第四个错误:样本数量不同

  1. X,y = datasets.make_blobs(n_samples=300,cluster_std=3)
  2. plt.scatter(X[:,0],X[:,1],c = y)

  1. index_0 = np.argwhere(y == 0).reshape(-1)
  2. index_0
  3. Out:
  4. array([ 4, 5, 9, 11, 12, 13, 16, 18, 20, 22, 23, 24, 25,
  5. 29, 33, 34, 40, 41, 44, 48, 52, 55, 58, 63, 65, 67,
  6. 68, 72, 73, 74, 75, 79, 80, 85, 87, 88, 94, 102, 105,
  7. 113, 118, 130, 134, 136, 138, 140, 143, 150, 151, 152, 154, 166,
  8. 171, 173, 175, 176, 178, 179, 180, 185, 192, 201, 203, 206, 207,
  9. 208, 212, 213, 215, 219, 222, 225, 226, 230, 231, 233, 234, 236,
  10. 237, 244, 248, 250, 251, 254, 257, 261, 262, 264, 265, 270, 277,
  11. 279, 280, 283, 286, 287, 289, 297, 298, 299], dtype=int64)
  12. index_1 = np.argwhere(y == 1).reshape(-1)[:20]
  13. index_1
  14. Out:
  15. array([ 0, 1, 7, 10, 15, 27, 28, 36, 38, 42, 45, 47, 54, 61, 62, 78, 82,
  16. 83, 86, 89], dtype=int64)
  17. index_2 = np.argwhere(y ==2).reshape(-1)[:10]
  18. index_2
  19. Out:
  20. array([ 2, 3, 6, 8, 14, 17, 19, 21, 26, 30], dtype=int64)
  21. index = np.concatenate([index_0,index_1,index_2])
  22. X = X[index]
  23. y = y[index]
  24. plt.scatter(X[:,0],X[:,1],c = y)

 

  1. kmeans = KMeans(3)
  2. kmeans.fit(X)
  3. y_ = kmeans.predict(X)
  4. plt.scatter(X[:,0],X[:,1],c = y_)

 

4、K-Means图片颜色点分类

导包from sklearn.metrics import pairwise_distances_argmin

from scipy import ndimage

压缩:ndimage.zoom

  1. # ndimage.zoom(input, zoom, output=None, order=3, mode='constant', cval=0.0, prefilter=True)
  2. china_new2 = ndimage.zoom(china_new,zoom = [427/1500,640/1500,1])
  3. plt.imshow(china_new2)

 

2、图片压缩

使用聚类压缩图片

img = plt.imread('../data/bird_small.png') img_shape = img.shape img_shape

  1. bird = plt.imread('../data/bird_small.png')
  2. bird.shape
  3. Out:(128,128,3)
  4. '''128*128=16384'''
  5. bird.reshape(-1,3)
  6. Out:
  7. array([[0.85882354, 0.7058824 , 0.40392157],
  8. [0.9019608 , 0.7254902 , 0.45490196],
  9. [0.8862745 , 0.7294118 , 0.43137255],
  10. ...,
  11. [0.25490198, 0.16862746, 0.15294118],
  12. [0.22745098, 0.14509805, 0.14901961],
  13. [0.20392157, 0.15294118, 0.13333334]], dtype=float32)
  14. plt.imshow(bird)

from pandas import Series,DataFrame'
运行
  1. df = DataFrame(bird.reshape(-1,3))
  2. df
  3. '''df[0].shape =(16384,) '''
  4. df.drop_duplicates().shape
  5. Out :
  6. (13930, 3)
  7. '''16384个像素值,包含13930个不同的颜色'''

kmeans

  1. kmeans = KMeans(n_clusters=4)
  2. # 16384颜色
  3. kmeans.fit(bird.reshape(-1,3))
  4. Out:
  5. KMeans(algorithm='auto', copy_x=True, init='k-means++', max_iter=300,
  6. n_clusters=4, n_init=10, n_jobs=1, precompute_distances='auto',
  7. random_state=None, tol=0.0001, verbose=0)

预测

  1. y_ = kmeans.predict(bird.reshape(-1,3))
  2. y_
  3. Out:
  4. array([0, 0, 0, ..., 1, 1, 1])
  5. y_.shape
  6. Out:(16384,)
  7. y_.max()
  8. Out: 3

聚类中心点代表着颜色

  1. # 聚类中心点代表着颜色
  2. cluster_centers_ = kmeans.cluster_centers_
  3. cluster_centers_
  4. Out:
  5. array([[0.7932539 , 0.63968104, 0.42075178],
  6. [0.12838763, 0.13014919, 0.12066123],
  7. [0.48904994, 0.40076178, 0.3222613 ],
  8. [0.9130492 , 0.86011744, 0.74095654]], dtype=float32)
  9. cluster_centers_[0]
  10. Out:array([0.7932539 , 0.63968104, 0.42075178], dtype=float32)
  11. cluster_centers_[[0,1,2,1,0]]
  12. Out:
  13. array([[0.7932539 , 0.63968104, 0.42075178],
  14. [0.12838763, 0.13014919, 0.12066123],
  15. [0.48904994, 0.40076178, 0.3222613 ],
  16. [0.12838763, 0.13014919, 0.12066123],
  17. [0.7932539 , 0.63968104, 0.42075178]], dtype=float32)

 

  1. Series(y_).unique()
  2. Out :
  3. array([3, 0, 2, 1], dtype=int64)
  4. bird_new = cluster_centers_[y_]
  5. bird_new.shape
  6. Out:
  7. (16384, 3)
  8. plt.imshow(bird_new.reshape(128,128,3))

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/812994
推荐阅读
相关标签
  

闽ICP备14008679号