赞
踩
学习目标
使用不同的聚类准则,产生的聚类结果不同。
1.1.1 聚类算法在现实中的应用
1.1.2 聚类算法的概念
聚类算法:
一种典型的无监督学习算法,主要用于将相似的样本自动归到一个类别中。
在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结 果,常用的相似度计算方法有欧式距离法。
1.1.3 聚类算法与分类算法最大的区别
聚类算法是无监督的学习算法,而分类算法属于监督的学习算法。
sklearn.cluster.KMeans(n_clusters=8)
参数:
n_clusters:开始的聚类中心数量
整型,缺省值=8,生成的聚类数,即产生的质心(centroids)数。
方法:
计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)
随机创建不同二维数据集作为训练集,并结合k-means算法将其聚类,你可以尝试分别聚类不同数量的簇,并观察聚类效果:
聚类参数n_cluster传值不同,得到的聚类结果不同
2.2.1 流程分析
2.2.2 代码实现
1.创建数据集
- import matplotlib.pyplot as plt
- from sklearn.datasets.samples_generator import make_blobs
- from sklearn.cluster import KMeans
- from sklearn.metrics import calinski_harabaz_score
- # 创建数据集
- # X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,
- # 簇中⼼在[-1,-1], [0,0],[1,1], [2,2], 簇⽅差分别为[0.4, 0.2, 0.2, 0.2]
- X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
- cluster_std=[0.4, 0.2, 0.2, 0.2],
- random_state=9)
- # 数据集可视化
- plt.scatter(X[:, 0], X[:, 1], marker='o')
- plt.show()
2.使用k-means进行聚类,并使用CH方法评估
- y_pred = KMeans(n_clusters=2, random_state=9).fit_predict(X)
- # 分别尝试n_cluses=2\3\4,然后查看聚类效果
- plt.scatter(X[:, 0], X[:, 1], c=y_pred)
- plt.show()
- # ⽤Calinski-Harabasz Index评估的聚类分数
- print(calinski_harabaz_score(X, y_pred))
k-means其实包含两层内容:
通过下图解释实现流程:
k聚类动态效果图
案例:
1、随机设置K个特征空间内的点作为初始的聚类中心(本案例中设置p1和p2)
2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别
3、接着对着标记的聚类中⼼之后,重新计算出每个聚类的新中⼼点(平均值)
4、如果计算得出的新中心点与原中心点一样(质心不再移动),那么结束,否则重新进行第二步过程【经过判断,需要重复上述步骤,开始新一轮迭代】
5、当每次迭代结果不变时,认为算法收敛,聚类完成,K-Means一定会停下,不可能陷如一直选质心的过程。
举例:(下图中数据-0.2, 0.4, -0.8, 1.3, -0.7, 均为真实值和预测值的差)
在k-means中的应用:
公式各部分内容:
上图中: k=2
(1)对于n个点的数据集,迭代计算k from 1 to n,每次聚类完成后计算每个点到其所属的簇中心的距离的平方和;
(2)平⽅和是会逐渐变小的,直到k==n时平方和为0,因为每个点都是它所在的簇中心本身。
(3)在这个平方和变化过程中,会出现一个拐点也即“肘”点,下降率突然变缓时即认为是最佳的k值。
在决定什么时候停止训练时,肘形判据同样有效,数据通常有更多的噪音,在增加分类无法带来更多回报时,我们停止增加类别。
结合了聚类的凝聚度(Cohesion)和分离度(Separation),用于评估聚类的效果:
目的: 内部距离最大化,外部距离最大化
计算样本i到同簇其他样本的平均距离ai,ai 越小样本i的簇内不相似度越小,说明样本i越应该被聚类到该簇。
计算样本i到最近簇Cj 的所有样本的平均距离bij,称样本i与最近簇Cj 的不相似度,定义为样本i的簇间不相似度:bi =min{bi1, bi2, ..., bik},bi越大,说明样本i越不属于其他簇。
求出所有样本的轮廓系数后再求平均值就得到了平均轮廓系数。
平均轮廓系数的取值范围为[-1,1],系数越大,聚类效果越好。
簇内样本的距离越近,簇间样本距离越远
案例:
下图是500个样本含有2个feature的数据分布情况,我们对它进SC系数效果衡量:
n_clusters = 2 The average silhouette_score is : 0.7049787496083262
n_clusters = 3 The average silhouette_score is : 0.5882004012129721
n_clusters = 4 The average silhouette_score is : 0.6505186632729437
n_clusters = 5 The average silhouette_score is : 0.56376469026194
n_clusters = 6 The average silhouette_score is : 0.4504666294372765
n_clusters 分别为 2,3,4,5,6时,SC系数如下,是介于[-1,1]之间的度量指标:
每次聚类后,每个样本都会得到一个轮廓系数,当它为1时,说明这个点与周围簇距离较远,结果非常好,当它为0,说明这个点可能处在两个簇的边界上,当值为负时,暗含该点可能被误分了。
从平均SC系数结果来看,K取3,5,6是不好的,那么2和4呢?
k=2的情况:
k=4的情况:
n_clusters = 2时,第0簇的宽度远宽于第1簇;
n_clusters = 4时,所聚的簇宽度相差不大,因此选择K=4,作为最终聚类个数。
Calinski-Harabasz:
类别内部数据的协⽅差越⼩越好,类别之间的协方差越大越好(换句话说:类别内部数据的距离平方和越小越好,类别之间的距离平方和越大越好),
这样的Calinski-Harabasz分数s会高,分数s高则聚类效果越好。
tr为矩阵的迹, Bk为类别之间的协方差矩阵,Wk为类别内部数据的协方差矩阵;
m为训练集样本数,k为类别数
使用矩阵的迹进行求解的理解:
矩阵的对⻆线可以表示一个物体的相似性
在机器学习里,主要为了获取数据的特征值,那么就是说,在任何一个矩阵计算出来之后,都可以简单化,只要获取矩阵的迹,就可以表示这一块数据的最重要的特征了,这样就可以把很多无关紧要的数据删除掉,达到简化数据,提高处理速度。
CH需要达到的目的:
用尽量少的类别聚类尽量多的样本,同时获得较好的聚类效果。
k-means算法小结
优点:
1.原理简单(靠近中心点),实现容易
2.聚类效果中上(依赖K的选择)
3.空间复杂度o(N),时间复杂度o(IKN)
N为样本点个数,K为中⼼点个数,I为迭代次数
缺点:
1.对离群点,噪声敏感 (中心点易偏移)
2.很难发现大小差别很大的簇及进行增量计算
3.结果不一定是全局最优,只能保证局部最优(与K的个数及初值选取有关)
5.1.1 Canopy算法配合初始聚类实现流程
5.1.2 1.2 Canopy算法的优缺点
优点:
1.Kmeans对噪声抗干扰较弱,通过Canopy对比,将较小的NumPoint的Cluster直接去掉有利于抗扰。
2.Canopy选择出来的每个Canopy的centerPoint作为K会更精确。
3.只是针对每个Canopy的内做Kmeans聚类,减少相似计算的数量。
缺点:
1.算法中 T1、T2的确定问题 ,依旧可能落入局部最优解
其中:
为方便后面表示,把其记为A
kmeans++目的,让选择的质心尽可能的分散
如下图中,如果第一个质⼼选择在圆心,那么最优可能选择到的下一个点在P(A)这个区域(根据颜色进行划分)
实现流程:
隐含的一个原则
因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所以需要对误差平方和最大的簇进行再一次划分,因为误差平方和越大,表示该簇聚类效果越不好,越有可能是多个簇被当成了一个 簇,所以我们首先需要对这个簇进行划分。
二分K均值算法可以加速K-means算法的执行速度,因为它的相似度计算少了并且不受初始化问题的影响,因为这里不存在随机点的选取,且每一步都保证了误差最小
K-medoids和K-means是有区别的,不一样的地方在于中心点的选取
算法流程:
有可能,选取代价函数最小时对应的点作为新的medoids
kernel k-means实际上,就是将每个样本进行一个投射到高维空间的处理,然后再将处理后的数据使用普通的k-means 算法思想进行聚类。
类别数目随着聚类过程变化;
对类别数会进行合并,分裂,
“合并”:(当聚类结果某一类中样本数太少,或两个类间的距离太近时)
“分裂”:(当聚类结果中某一类的类内方差太大,将该类进行分裂)
适合大数据的聚类算法
大数据量是什么量级?通常当样本量大于1万做聚类时,就需要考虑选用Mini Batch K-Means算法。
Mini Batch KMeans使用了Mini Batch(分批处理)的方法对数据点之间的距离进行计算。
Mini Batch计算过程中不必使用所有的数据样本,而是从不同类别的样本中抽取一部分样本来代表各种类型进行计算。
由于计算样本量少,所以会相应的减少运行时间,但另一方面抽样也必然会带来准确度的下降。
该算法的迭代步骤有两步:
(1)从数据集中随机抽取一些数据形成小批量,把他们分配给最近的质心
(2)更新质心
与Kmeans相比,数据的更新在每一个小的样本集上。对于每一个小批量,通过计算平均值得到更新质心,并把小批量的数据分配给该质心,随着迭代次数的增加,这些质心的变化是逐渐减小的,直到质心稳定或者达到指定的迭代次数,停止计算。
6.1.1 定义
降维是指在某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程。
降低随机变量的个数
相关特征(correlated feature)
正是因为在进行训练的时候,我们都是使用特征进行学习。如果特征本身存在问题或者特征之间相关性较强,对于算法学习预测会影响较大
6.1.2 降维的两种方式
特征选择
主成分分析(可以理解一种特征提取的方式)
6.2.1 定义
数据中包含冗余或无关变量(或称特征、属性、指标等),旨在从原有特征中找出主要特征。
6.2.2 方法
Filter(过滤式):主要探究特征本身特点、特征与特征和目标值之间关联
Embedded (嵌入式):算法自动选择特征(特征与目标值之间的关联)
6.2.3 低方差特征过滤
删除低方差的一些特征,前面讲过方差的意义。再结合方差的大小来考虑这个方式的⻆度。
特征方差小:某个特征大多样本的值比较相近
特征方差大:某个特征很多样本的值都有差别
6.2.3.1 API
sklearn.feature_selection.VarianceThreshold(threshold = 0.0)
删除所有低⽅差特征
Variance.fit_transform(X)
X:numpy array格式的数据[n_samples,n_features]
返回值:训练集差异低于threshold的特征将被删除。默认值是保留所有⾮零⽅差特征,即删除所有样本中具有相同值的特征。
6.2.3.2 数据计算
我们对某些股票的指标特征之间进行一个筛选,除去'index,'date','return'列不考虑(这些类型不匹配,也不是所需要指标)
一共这些特征
分析
1、初始化VarianceThreshold,指定阀值方差
2、调用fit_transform
返回结果:
6.2.4 相关系数
主要实现方式:
6.2.4.1 皮尔逊相关系数(Pearson Correlation Coefficient)
1.作用
反映变量之间相关关系密切程度的统计指标
2.公式计算案例(了解,不用记忆)
公式
举例
比如说我们计算年告费投入与月均销售额
那么之间的相关系数怎么计算
最终计算
所以我们最终得出结论是广告投入费与月平均销售额之间有高度的正相关关系。
3.特点
相关系数的值介于–1与+1之间,即–1≤ r ≤+1。其性质如下:
当r>0时,表示两变量正相关,r<0时,两变量为负相关
当|r|=1时,表示两变量为完全相关,当r=0时,表示两变量间无相关关系
当0<|r|<1时,表示两变量存在⼀定程度的相关。且|r|越接近1,两变量间线性关系越密切;|r|越接近于0,表示两变
量的线性相关越弱
一般可按三级划分:|r|<0.4为低度相关;0.4≤|r|<0.7为显著性相关;0.7≤|r|<1为高度线性相关
4.api
from scipy.stats import pearsonr
5.案例
6.2.4.2 斯皮尔曼相关系数(Rank IC)
1.作用:
反映变量之间相关关系密切程度的统计指标
2.公式计算案例(了解,不用记忆)
公式
n为等级个数,d为二列成对变量的等级差数
举例:
3.特点
斯皮尔曼相关系数表明 X (自变量) 和 Y (因变量)的相关方向。 如果当X增加时, Y 趋向于增加, 斯皮尔曼相关系数
则为正
与之前的皮尔逊相关系数大小性质⼀样,取值 [-1, 1]之间
斯皮尔曼相关系数比皮尔逊相关系数应用更加广泛
4.api
from scipy.stats import spearmanr
5.案例
6.3.1 什么是主成分分析(PCA)
对于信息一词,在决策树中会进行介绍
那么更好的理解这个过程呢?我们来看一张图
6.3.2 API
sklearn.decomposition.PCA(n_components=None)
将数据分解为较低维数空间
n_components:
小数:表示保留百分之多少的信息
整数:减少到多少特征
PCA.fit_transform(X) X:numpy array格式的数据[n_samples,n_features]
返回值:转换后指定维度的array
6.3.3 数据计算
先拿个简单的数据计算一下
- [[2,8,4,5],
- [6,3,0,8],
- [5,4,9,1]]
- from sklearn.decomposition import PCA
- def pca_demo():
- """
- 对数据进⾏PCA降维
- :return: None
- """
- data = [[2,8,4,5], [6,3,0,8], [5,4,9,1]]
- # 1、实例化PCA, ⼩数——保留多少信息
- transfer = PCA(n_components=0.9)
- # 2、调⽤fit_transform
- data1 = transfer.fit_transform(data)
- print("保留90%的信息,降维结果为:\n", data1)
- # 1、实例化PCA, 整数——指定降维到的维数
- transfer2 = PCA(n_components=3)
- # 2、调⽤fit_transform
- data2 = transfer2.fit_transform(data)
- print("降维到3维的结果:\n", data2)
- return None
返回结果:
- 保留90%的信息,降维结果为:
- [[ -3.13587302e-16 3.82970843e+00]
- [ -5.74456265e+00 -1.91485422e+00]
- [ 5.74456265e+00 -1.91485422e+00]]
- 降维到3维的结果:
- [[ -3.13587302e-16 3.82970843e+00 4.59544715e-16]
- [ -5.74456265e+00 -1.91485422e+00 4.59544715e-16]
- [ 5.74456265e+00 -1.91485422e+00 4.59544715e-16]]
数据如下:
order_products__prior.csv:订单与商品信息
products.csv:商品信息
orders.csv:用户的订单信息
aisles.csv:商品所属具体物品类别
1.获取数据
2.数据基本处理
3.特征工程 — pca
4.机器学习(k-means)
5.模型评估
sklearn.metrics.silhouette_score(X, labels)
1.获取数据
- order_product = pd.read_csv("./data/instacart/order_products__prior.csv")
- products = pd.read_csv("./data/instacart/products.csv")
- orders = pd.read_csv("./data/instacart/orders.csv")
- aisles = pd.read_csv("./data/instacart/aisles.csv")
2.数据基本处理
2.1 合并表格
- # 2.1 合并表格
- table1 = pd.merge(order_product, products, on=["product_id", "product_id"])
- table2 = pd.merge(table1, orders, on=["order_id", "order_id"])
- table = pd.merge(table2, aisles, on=["aisle_id", "aisle_id"])
2.2 交叉表合并
table = pd.crosstab(table["user_id"], table["aisle"])
2.3 数据截取
table = table[:1000]
3.特征工程 — pca
- transfer = PCA(n_components=0.9)
- data = transfer.fit_transform(table)
4.机器学习(k-means)
- estimator = KMeans(n_clusters=8, random_state=22)
- estimator.fit_predict(data)
5.模型评估
silhouette_score(data, y_predict)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。