当前位置:   article > 正文

Apriori 算法原理与Python实现_所以 该算法需要一个函数createc1

所以 该算法需要一个函数createc1

1 Apriori算法简介

Apriori算法是经典的挖掘频繁项集和关联规则的数据挖掘算法。A priori在拉丁语中指"来自以前"。当定义问题时,通常会使用先验知识或者假设,这被称作"一个先验"(a priori)。Apriori算法的名字正是基于这样的事实:算法使用频繁项集性质的先验性质,即频繁项集的所有非空子集也一定是频繁的。Apriori算法使用一种称为逐层搜索的迭代方法,其中k项集用于探索(k+1)项集。首先,通过扫描数据库,累计每个项的计数,并收集满足最小支持度的项,找出频繁1项集的集合。该集合记为L1。然后,使用L1找出频繁2项集的集合L2,使用L2找出L3,如此下去,直到不能再找到频繁k项集。每找出一个Lk需要一次数据库的完整扫描。Apriori算法使用频繁项集的先验性质来压缩搜索空间。

2 基本概念

  • 项与项集:设itemset={item1, item_2, …, item_m}是所有项的集合,其中,item_k(k=1,2,…,m)成为项。项的集合称为项集(itemset),包含k个项的项集称为k项集(k-itemset)。

  • 事务与事务集:一个事务T是一个项集,它是itemset的一个子集,每个事务均与一个唯一标识符Tid相联系。不同的事务一起组成了事务集D,它构成了关联规则发现的事务数据库。

  • 关联规则:关联规则是形如A=>B的蕴涵式,其中A、B均为itemset的子集且均不为空集,而A交B为空。

  • 支持度(support):关联规则的支持度定义如下:

support(A \Rightarrow B) = P(A\cup B)

其中P(A\cup B)表示事务包含集合A和B的并(即包含A和B中的每个项)的概率。注意与P(A or B)区别,后者表示事务包含A或B的概率。

  • 置信度(confidence):关联规则的置信度定义如下:

confidence(A \Rightarrow B) = P(B | A) = \frac{support(A\cup B)}{support(A)} = \frac{support\; count(A\cup B)}{support\; count(A)}

  • 项集的出现频度(support count):包含项集的事务数,简称为项集的频度、支持度计数或计数。

  • 频繁项集(frequent itemset):如果项集I的相对支持度满足事先定义好的最小支持度阈值(即I的出现频度大于相应的最小出现频度(支持度计数)阈值),则I是频繁项集。

  • 强关联规则:满足最小支持度和最小置信度的关联规则,即待挖掘的关联规则。

3 实现步骤

一般而言,关联规则的挖掘是一个两步的过程:

  1. 找出所有的频繁项集
  2. 由频繁项集产生强关联规则

3.1 挖掘频繁项集

3.1.1 相关定义

  • 连接步骤:频繁(k-1)项集Lk-1的自身连接产生候选k项集Ck

Apriori算法假定项集中的项按照字典序排序。如果Lk-1中某两个的元素(项集)itemset1和itemset2的前(k-2)个项是相同的,则称itemset1和itemset2是可连接的。所以itemset1与itemset2连接产生的结果项集是{itemset1[1], itemset1[2], …, itemset1[k-1], itemset2[k-1]}。连接步骤包含在下文代码中的create_Ck函数中。

  • 剪枝策略

由于存在先验性质:任何非频繁的(k-1)项集都不是频繁k项集的子集。因此,如果一个候选k项集Ck的(k-1)项子集不在Lk-1中,则该候选也不可能是频繁的,从而可以从Ck中删除,获得压缩后的Ck。下文代码中的is_apriori函数用于判断是否满足先验性质,create_Ck函数中包含剪枝步骤,即若不满足先验性质,剪枝。

  • 删除策略

基于压缩后的Ck,扫描所有事务,对Ck中的每个项进行计数,然后删除不满足最小支持度的项,从而获得频繁k项集。删除策略包含在下文代码中的generate_Lk_by_Ck函数中。

3.1.2 步骤

  1. 每个项都是候选1项集的集合C1的成员。算法扫描所有的事务,获得每个项,生成C1(见下文代码中的create_C1函数)。然后对每个项进行计数。然后根据最小支持度从C1中删除不满足的项,从而获得频繁1项集L1。

  2. 对L1的自身连接生成的集合执行剪枝策略产生候选2项集的集合C2,然后,扫描所有事务,对C2中每个项进行计数。同样的,根据最小支持度从C2中删除不满足的项,从而获得频繁2项集L2。

  3. 对L2的自身连接生成的集合执行剪枝策略产生候选3项集的集合C3,然后,扫描所有事务,对C3每个项进行计数。同样的,根据最小支持度从C3中删除不满足的项,从而获得频繁3项集L3。

  4. 以此类推,对Lk-1的自身连接生成的集合执行剪枝策略产生候选k项集Ck,然后,扫描所有事务,对Ck中的每个项进行计数。然后根据最小支持度从Ck中删除不满足的项,从而获得频繁k项集。

3.2 由频繁项集产生关联规则

一旦找出了频繁项集,就可以直接由它们产生强关联规则。产生步骤如下:

  • 对于每个频繁项集itemset,产生itemset的所有非空子集(这些非空子集一定是频繁项集);

  • 对于itemset的每个非空子集s,如果\frac{support\;count(t)}{support\;count(s)} \geq min\; conf,则输出s \Rightarrow (l - s ), 其中min_conf是最小置信度阈值。

4 样例以及Python实现代码

下图是《数据挖掘:概念与技术》(第三版)中挖掘频繁项集的样例图解。

本文基于该样例的数据编写Python代码实现Apriori算法。代码需要注意如下两点:

  • 由于Apriori算法假定项集中的项是按字典序排序的,而集合本身是无序的,所以我们在必要时需要进行set和list的转换;
  • 由于要使用字典(support_data)记录项集的支持度,需要用项集作为key,而可变集合无法作为字典的key,因此在合适时机应将项集转为固定集合frozenset。
  1. def load_data_set():
  2. """
  3. Load a sample data set (From Data Mining: Concepts and Techniques, 3th Edition)
  4. Returns:
  5. A data set: A list of transactions. Each transaction contains several items.
  6. """
  7. data_set = [
  8. ['l1', 'l2', 'l5'],
  9. ['l2', 'l4'],
  10. ['l2', 'l3'],
  11. ['l1', 'l2', 'l4'],
  12. ['l1', 'l3'],
  13. ['l2', 'l3'],
  14. ['l1', 'l3'],
  15. ['l1', 'l2', 'l3', 'l5'],
  16. ['l1', 'l2', 'l3']
  17. ]
  18. return data_set
  19. def create_C1(data_set):
  20. """
  21. Create frequent candidate 1-itemset C1 by scaning data set.
  22. Args:
  23. data_set: A list of transactions. Each transaction contains several items.
  24. Returns:
  25. C1: A set which contains all frequent candidate 1-itemsets
  26. """
  27. C1 = set()
  28. for t in data_set:
  29. for item in t:
  30. # frozenset 返回一个冻结的集合,冻结后集合不能再添加或删除任何元素。
  31. item_set = frozenset([item])
  32. C1.add(item_set)
  33. return C1
  34. def is_apriori(Ck_item, Lksub1):
  35. """
  36. 判断频繁的候选集k-itemset是否满足Apriori属性。
  37. Judge whether a frequent candidate k-itemset satisfy Apriori property.
  38. Args:
  39. Ck_item: a frequent candidate k-itemset in Ck which contains all frequent
  40. candidate k-itemsets.
  41. Lksub1: Lk-1, a set which contains all frequent candidate (k-1)-itemsets.
  42. Returns:
  43. True: satisfying Apriori property.
  44. False: Not satisfying Apriori property.
  45. """
  46. # print("Ck_item, Lksub1", Ck_item, Lksub1)
  47. for item in Ck_item:
  48. sub_Ck = Ck_item - frozenset([item])
  49. if sub_Ck not in Lksub1:
  50. return False
  51. return True
  52. def create_Ck(Lksub1, k):
  53. """
  54. Create Ck, a set which contains all all frequent candidate k-itemsets
  55. by Lk-1's own connection operation.
  56. Args:
  57. Lksub1: Lk-1, a set which contains all frequent candidate (k-1)-itemsets.
  58. k: the item number of a frequent itemset.
  59. Return:
  60. Ck: a set which contains all all frequent candidate k-itemsets.
  61. """
  62. Ck = set()
  63. len_Lksub1 = len(Lksub1)
  64. list_Lksub1 = list(Lksub1)
  65. for i in range(len_Lksub1):
  66. # 优化
  67. for j in range(i + 1, len_Lksub1):
  68. l1 = list(list_Lksub1[i])
  69. l2 = list(list_Lksub1[j])
  70. l1.sort()
  71. l2.sort()
  72. # 优化,[1,5,6] [1,6,7] 必定有[1,5,7], 如果没有, [1,5,6,7] 不能存在
  73. if l1[:k - 2] == l2[:k - 2]:
  74. # if l1[:-2] == l2[:-2]: # 等同于 l1[:k - 2] == l2[:k - 2]
  75. # if len(set(l1 + l2)) == len(l1) +1: # 优化前,需要去重
  76. # |:并集, &:交集
  77. Ck_item = list_Lksub1[i] | list_Lksub1[j]
  78. # print("Ck_item", Ck_item)
  79. # 判断 Ck_item 中的每个元素是否在 Lksub1 数据集中
  80. if is_apriori(Ck_item, Lksub1):
  81. Ck.add(Ck_item)
  82. return Ck
  83. def generate_Lk_by_Ck(data_set, Ck, min_support, support_data):
  84. """
  85. Generate Lk by executing a delete policy from Ck.
  86. Args:
  87. data_set: A list of transactions. Each transaction contains several items.
  88. Ck: A set which contains all all frequent candidate k-itemsets.
  89. min_support: The minimum support.
  90. support_data: A dictionary. The key is frequent itemset and the value is support.
  91. Returns:
  92. Lk: A set which contains all all frequent k-itemsets.
  93. """
  94. Lk = set()
  95. item_count = {}
  96. for t in data_set:
  97. for item in Ck:
  98. # 判断集合 item 的所有元素是否都包含在集合 t 中
  99. if item.issubset(t):
  100. if item not in item_count:
  101. item_count[item] = 1
  102. else:
  103. item_count[item] += 1
  104. t_num = float(len(data_set))
  105. for item in item_count:
  106. if (item_count[item] / t_num) >= min_support:
  107. Lk.add(item)
  108. support_data[item] = item_count[item] / t_num
  109. return Lk
  110. def generate_L(data_set, k, min_support):
  111. """
  112. 生成所有频繁项集,最大项数为 k, 最小支持度为 min_support
  113. Generate all frequent itemsets.
  114. Args:
  115. data_set: A list of transactions. Each transaction contains several items.
  116. k: Maximum number of items for all frequent itemsets.
  117. min_support: The minimum support.
  118. Returns:
  119. L: The list of Lk.
  120. support_data: A dictionary. The key is frequent itemset and the value is support.
  121. """
  122. support_data = {}
  123. # 获取初始项集(k=1)
  124. C1 = create_C1(data_set)
  125. # 获取支持度大于 min_support 的数据项
  126. L1 = generate_Lk_by_Ck(data_set, C1, min_support, support_data)
  127. Lksub1 = L1.copy()
  128. L = []
  129. L.append(Lksub1)
  130. for i in range(2, k + 1):
  131. Ci = create_Ck(Lksub1, i)
  132. Li = generate_Lk_by_Ck(data_set, Ci, min_support, support_data)
  133. # 注意不能直接把 Li 添加到 L 中
  134. Lksub1 = Li.copy()
  135. L.append(Lksub1)
  136. return L, support_data
  137. def generate_big_rules(L, support_data, min_conf):
  138. """
  139. Generate big rules from frequent itemsets.
  140. Args:
  141. L: The list of Lk.
  142. support_data: A dictionary. The key is frequent itemset and the value is support.
  143. min_conf: Minimal confidence.
  144. Returns:
  145. big_rule_list: A list which contains all big rules. Each big rule is represented
  146. as a 3-tuple.
  147. """
  148. big_rule_list = []
  149. sub_set_list = []
  150. # 循环频繁项数据集 集合列表
  151. for i in range(0, len(L)):
  152. #
  153. for freq_set in L[i]:
  154. for sub_set in sub_set_list:
  155. if sub_set.issubset(freq_set):
  156. conf = support_data[freq_set] / support_data[freq_set - sub_set]
  157. big_rule = (freq_set - sub_set, sub_set, conf)
  158. if conf >= min_conf and big_rule not in big_rule_list:
  159. # # print(freq_set-sub_set, " => ", sub_set, "conf: ", conf
  160. big_rule_list.append(big_rule)
  161. sub_set_list.append(freq_set)
  162. return big_rule_list
  163. if __name__ == "__main__":
  164. """
  165. Test
  166. """
  167. # 加载数据集
  168. data_set = load_data_set()
  169. # 获取最大项为3,最小支持度为0.2的频繁项集
  170. L, support_data = generate_L(data_set, k=3, min_support=0.2)
  171. print(L)
  172. print(support_data)
  173. # 获取最小置信度为 0.7 的数据
  174. big_rules_list = generate_big_rules(L, support_data, min_conf=0.7)
  175. print(big_rules_list)
  176. for Lk in L:
  177. print("=" * 50)
  178. print("frequent " + str(len(list(Lk)[0])) + "-itemsets\t\tsupport")
  179. print("=" * 50)
  180. for freq_set in Lk:
  181. print(freq_set, support_data[freq_set])
  182. print("\n\n" + "=" * 20 + " Big Rules " + "=" * 20)
  183. for item in big_rules_list:
  184. print(item[0], "=>", item[1], "conf: ", item[2])

代码运行结果如下:

  1. [{frozenset({'l5'}), frozenset({'l4'}), frozenset({'l2'}), frozenset({'l1'}), frozenset({'l3'})}, {frozenset({'l5', 'l1'}), frozenset({'l3', 'l2'}), frozenset({'l1', 'l2'}), frozenset({'l3', 'l1'}), frozenset({'l4', 'l2'}), frozenset({'l5', 'l2'})}, {frozenset({'l5', 'l1', 'l2'}), frozenset({'l3', 'l1', 'l2'})}]
  2. {frozenset({'l5'}): 0.2222222222222222, frozenset({'l2'}): 0.7777777777777778, frozenset({'l1'}): 0.6666666666666666, frozenset({'l4'}): 0.2222222222222222, frozenset({'l3'}): 0.6666666666666666, frozenset({'l5', 'l1'}): 0.2222222222222222, frozenset({'l1', 'l2'}): 0.4444444444444444, frozenset({'l5', 'l2'}): 0.2222222222222222, frozenset({'l4', 'l2'}): 0.2222222222222222, frozenset({'l3', 'l2'}): 0.4444444444444444, frozenset({'l3', 'l1'}): 0.4444444444444444, frozenset({'l5', 'l1', 'l2'}): 0.2222222222222222, frozenset({'l3', 'l1', 'l2'}): 0.2222222222222222}
  3. [(frozenset({'l5'}), frozenset({'l1'}), 1.0), (frozenset({'l4'}), frozenset({'l2'}), 1.0), (frozenset({'l5'}), frozenset({'l2'}), 1.0), (frozenset({'l5', 'l1'}), frozenset({'l2'}), 1.0), (frozenset({'l5', 'l2'}), frozenset({'l1'}), 1.0), (frozenset({'l5'}), frozenset({'l1', 'l2'}), 1.0)]
  4. ==================================================
  5. frequent 1-itemsets support
  6. ==================================================
  7. frozenset({'l5'}) 0.2222222222222222
  8. frozenset({'l4'}) 0.2222222222222222
  9. frozenset({'l2'}) 0.7777777777777778
  10. frozenset({'l1'}) 0.6666666666666666
  11. frozenset({'l3'}) 0.6666666666666666
  12. ==================================================
  13. frequent 2-itemsets support
  14. ==================================================
  15. frozenset({'l5', 'l1'}) 0.2222222222222222
  16. frozenset({'l3', 'l2'}) 0.4444444444444444
  17. frozenset({'l1', 'l2'}) 0.4444444444444444
  18. frozenset({'l3', 'l1'}) 0.4444444444444444
  19. frozenset({'l4', 'l2'}) 0.2222222222222222
  20. frozenset({'l5', 'l2'}) 0.2222222222222222
  21. ==================================================
  22. frequent 3-itemsets support
  23. ==================================================
  24. frozenset({'l5', 'l1', 'l2'}) 0.2222222222222222
  25. frozenset({'l3', 'l1', 'l2'}) 0.2222222222222222
  26. ==================== Big Rules ====================
  27. frozenset({'l5'}) => frozenset({'l1'}) conf: 1.0
  28. frozenset({'l4'}) => frozenset({'l2'}) conf: 1.0
  29. frozenset({'l5'}) => frozenset({'l2'}) conf: 1.0
  30. frozenset({'l5', 'l1'}) => frozenset({'l2'}) conf: 1.0
  31. frozenset({'l5', 'l2'}) => frozenset({'l1'}) conf: 1.0
  32. frozenset({'l5'}) => frozenset({'l1', 'l2'}) conf: 1.0
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/356791
推荐阅读
相关标签
  

闽ICP备14008679号