当前位置:   article > 正文

聚类算法(五)——层次聚类 linkage (含代码)_层次聚类模型评价代码

层次聚类模型评价代码

聚类算法相关:

聚类算法(一)——DBSCAN

聚类算法(二)—— 优缺点对比

聚类算法(三)—— 评测方法1

聚类算法(三)—— 评测方法2

聚类算法(三)—— 评测方法3(代码)

聚类算法(四)—— 基于词语相似度的聚类算法(含代码)

聚类算法(五)——层次聚类 linkage (含代码)

聚类算法(六)——谱聚类 (含代码)

聚类算法(七)—— Kmeans

一 原理

基本工作原理
给定要聚类的N的对象以及N*N的距离矩阵(或者是相似性矩阵), 层次式聚类方法的基本步骤(参看S.C. Johnson in 1967)如下:
1.     将每个对象归为一类, 共得到N类, 每类仅包含一个对象. 类与类之间的距离就是它们所包含的对象之间的距离.

2.     找到最接近的两个类并合并成一类, 于是总的类数少了一个.
3.     重新计算新的类与所有旧类之间的距离.
4.     重复第2步和第3步, 直到最后合并成一个类为止(此类包含了N个对象).
根据步骤3的不同, 可将层次式聚类方法分为几类: single-linkage, complete-linkage 以及 average-linkage 聚类方法等.

single-linkage 聚类法(也称 connectedness 或 minimum 方法):

类间距离等于两类对象之间的最小距离,若用相似度衡量,则是各类中的任一对象与另一类中任一对象的最大相似度。

complete-linkage 聚类法 (也称 diameter 或 maximum 方法):

组间距离等于两组对象之间的最大距离。

average-linkage 聚类法:

组间距离等于两组对象之间的平均距离。

average-link 聚类的一个变种是R. D'Andrade (1978) 的UCLUS方法, 它使用的是median距离, 在受异常数据对象的影响方面, 它要比平均距离表现更佳一些.

参考: http://blog.sciencenet.cn/blog-1271266-858703.html  

 

 

二 函数原型

 scipy.cluster.hierarchy.linkage(y, method='single', metric='euclidean', optimal_ordering=False)

参考自: https://blog.csdn.net/Tan_HandSome/article/details/79371076?utm_source=blogxgwz9

1.1 method 

主要是 method 这个参数

  • method = ‘single’

            d(u,v) = min(dist(u[i],u[j]))

对于u中所有点i和v中所有点j。这被称为最近邻点算法。

  • method = 'complete'

             d(u,v) = max(dist(u[i],u[j]))

  对于u中所有点i和v中所有点j。这被称为最近邻点算法。

  • method = 'average'

                

|u|,|v|是聚类u和v中元素的的个数,这被称为UPGMA算法(非加权组平均)法。

  • method = 'weighted'

            d(u,v) = (dist(s,v) + dist(t,v))/2

u是由s和t形成的,而v是森林中剩余的聚类簇,这被称为WPGMA(加权分组平均)法。

  • method = 'centroid'

            

Cs和Ct分别为聚类簇s和t的聚类中心,当s和t形成一个新的聚类簇时,聚类中心centroid会在s和t上重新计算。这段聚类就变成了u的质心和剩下聚类簇v的质心之间的欧式距离。这杯称为UPGMC算法(采用质心的无加权paire-group方法)。

 

  • method = 'median'

  当两个聚类簇s和t组合成一个新的聚类簇u时,s和t的质心的均值称为u的质心。这被称为WPGMC算法。

  • method = 'ward' (沃德方差最小化算法)

新的输入d(u,v)通过下式计算得出,

        

u是s和t组成的新的聚类,v是森林中未使用的聚类。T = |v|+|s|+|t|,|*|是聚类簇中观测值的个数。

注意:当最小距离在一个森林中成对存在时,即有多个最小距离的时候,具体的实现要看MATLAB的版本(因为这个函数是从matlab里面copy过来的)。

1.2参数:

y:nump.ndarry。是一个压缩距离的平面上三角矩阵。或者n*m的观测值。压缩距离矩阵的所有元素必须是有限的,没有NaNs或infs。

method:str,可选。

metric:str或function,可选。在y维观测向量的情况下使用该参数,苟泽忽略。参照有效距离度量列表的pdist函数,还可以使用自定义距离函数。

optimal_ordering:bool。若为true,linkage矩阵则被重新排序,以便连续叶子间距最小。当数据可视化时,这将使得树结构更为直观。默认为false,因为数据集非常大时,执行此操作计算量将非常大。

三 代码

简单版

  1. from scipy.cluster.hierarchy import dendrogram, linkage,fcluster
  2. from matplotlib import pyplot as plt
  3. X = [[i] for i in [2, 8, 0, 4, 1, 9, 9, 0]]
  4. # X = [[1,2],[3,2],[4,4],[1,2],[1,3]]
  5. Z = linkage(X, 'ward')
  6. f = fcluster(Z,4,'distance')
  7. fig = plt.figure(figsize=(5, 3))
  8. dn = dendrogram(Z)

复杂一点的,对于词语聚类,采用word2vec 聚类(也可以采用fasttext的句子向量) 参见:聚类算法(四)—— 基于词语相似度的聚类算法(含代码)

 

  1. from scipy.spatial.distance import pdist
  2. from scipy.cluster.hierarchy import dendrogram,linkage, fcluster
  3. import os
  4. import pickle
  5. import numpy

采用词向量计算 

  1. keywords = [] # 这里列上想要聚类的词语或句子
  2. embedding_file = '' # embedding 模型文件
  3. embedding_model2 = Embedding(embedding_file, 200, type='w2v')
  4. vec = [embedding_model2.get_word_embedding(x) for x in keywords] # get_word_embedding 参见聚类算法(四) 或者直接替换为自己的词向量算法,或特征向量
  5. arr = numpy.array(vec)
  6. dist = pdist(arr, metric='cosine')
  7. row_clusters = linkage(dist, method ='median') # centroid、median、ward只能定义在欧氏距离计算中。如果预先将y计算的距离传进来,那么要确保是用欧式距离计算的,否则将会导致错误的计算结果

上面代码也可以替换为TfidfVectorizer

  1. import jieba.posseg as pseg
  2. from sklearn.feature_extraction.text import TfidfVectorizer
  3. from scipy.spatial.distance import pdist
  4. import os
  5. import pickle
  6. cv = TfidfVectorizer(binary=False, decode_error='ignore')
  7. vec = cv.fit_transform(feature) # feature 为文本切词后的list
  8. arr = vec.toarray()
  9. dist = pdist(arr, metric=metric)
  10. row_clusters = linkage(dist, method=method)

结果处理 

  1. data = {"file_names_list": keywords, "row_clusters": row_clusters, "dist": dist}
  2. result = get_cluster_result(data, 0.5)
  3. count = 1
  4. for item in result:
  5. for e in item['file_names']:
  6. print("{}\t{}\t{}\t{}".format(e, count, item["max_value"], len(item["file_names"])))
  7. count += 1

 结果格式转化函数

  1. def get_cluster_result(data, threshold):
  2. file_names_list = data["file_names_list"]
  3. row_clusters = data["row_clusters"]
  4. dist = data["dist"]
  5. max_value = 0
  6. for row in row_clusters:
  7. if row[2] > max_value:
  8. max_value = row[2]
  9. labels = fcluster(row_clusters, t=threshold * max_value, criterion="distance")
  10. cluster_dict = dict()
  11. for i in range(len(file_names_list)):
  12. if labels[i] not in cluster_dict:
  13. cluster_dict[labels[i]] = []
  14. cluster_dict[labels[i]].append({"file_name": file_names_list[i], "index": i})
  15. k = 0
  16. m = len(file_names_list)
  17. ij2index = dict()
  18. for i in range(0, m):
  19. for j in range(i + 1, m):
  20. ij2index["i:{}j:{}".format(i, j)] = k
  21. k += 1
  22. result = []
  23. for key, value in cluster_dict.items():
  24. index = []
  25. file_names = []
  26. max_value = 0
  27. for item in value:
  28. index.append(item["index"])
  29. file_names.append(item["file_name"])
  30. if len(index) > 1:
  31. for i in range(len(index)):
  32. for j in range(i+1, len(index)):
  33. temp = dist[ij2index["i:{}j:{}".format(index[i], index[j])]]
  34. if temp > max_value:
  35. max_value = temp
  36. result.append({"file_names": file_names, "max_value": 1-max_value})
  37. else:
  38. result.append({"file_names": file_names, "max_value": 1})
  39. result.sort(key=lambda o: -len(o["file_names"]))
  40. return result

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/129030
推荐阅读
相关标签
  

闽ICP备14008679号