当前位置:   article > 正文

关联规则挖掘算法--Apriori算法_关联规则apriori算法

关联规则apriori算法

一、Apriori算法

  1. 简介

关联规则分析是数据挖掘中最活跃的研究方法之一,目的是在一个数据集中找到各项之间的关联关系,而这种关系并没有在数据中直接体现出来。Apriori算法 关联规则学习的经典算法之一,是R.Agrawal和R.Srikartt于1944年提出的一种具有影响力的挖掘布尔关联规则挖掘频繁项集的算法。
  1. 基本原理

关联规则的一般定义如下:

(1)项集:定义表示一个项集。

(2)事务集:设任务相关的数据D是数据库事务的集合,即D是事务的集合;每个事务T是项的集合,其中 。例如表示一个事务。

(3)关联规则蕴含式:关联规则形如A=>B的蕴含式,,并且

(4)支持度s:D中包含A和 B 的事务数与总的事务数的比值。规则 A=>B 在数据集D中的支持度为s, 其中s 表示D中包含 (即同时包含A和B)的事务的百分率,即概率P(

(5)可信度 c :D中同时包含A和B的事务数与只包含A的事务数的比值。规则 A=>B 在数据集D中的可信度为c, 其中c表示D中包含A的事务中也包含B的百分率.即可用条件概率P(B|A)表示:

其中supportCount表示项集出现的频率,即包含项集的事务数目。

(6)最小支持度 :表示规则中的所有项在事务中出现的频度。

(7)最小可信度 : 表示规则中左边的项(集)的出现暗示着右边的项(集)出现的频度。

关联规则挖掘过程:

(1)根据最小支持度找到数据集D中的所有频繁项集。

(2)由频繁项集产生强关联规则。强关联规则必须满足最小支持度和最小置信度

频繁项集两条重要性质:

(1) 频繁项集的子项集必是频繁项集。

(2)非频繁项集的超集一定是非频繁的。

3.算法过程

Apriori算法使用一种称作逐层搜索的迭代方法,利用k项集用于探索(k+1)项集。主要过程如下:

(1)首先,通过扫描数据库,累积每个项的计数,并收集满足最小支持度的项,找出频繁1项集的集合,该集合称作L1。

(2)然后,L1用于找频繁2项集的集合L2,L2用于寻找L3,如此下去,直到不能再找到新的频繁k项集。找每个 Lk要求对数据库做一次完全扫描。

Apriori算法使用的是产生-测试策略来发现频繁项集。每次迭代后,新的项集由前一次迭代发现的频繁项集产生,然后对每个候选的支持度进行计数,并与最小支持度阈值进行比较。算法需要迭代的总次数是kmax+1,其中kmax是频繁项集的最大长度。

二、Apriori算法举例

  1. 案例说明和数据

找到以下数据的频繁项集,最小支持度阈值是 2。其中每一行数据代表一个事务。

"I1 I2 I5"
"I2 I4"
"I2 I3"
"I1 I2 T4"
"I1 I3"
"I2 I3"
"I1 I3"
"I1 I2 I3 I5"
"I1 I2 I3"
  1. 基于python代码实现

(1)代码

  1. def get_first_item(dataset):
  2. """
  3. 获取数据集元素
  4. :param dataset: 数据集(二维数组)
  5. :return: 元素数组(二维)
  6. """
  7. dataset_item = [] # 数据集元素
  8. for i in dataset:
  9. for j in i:
  10. if [j] not in dataset_item:
  11. dataset_item.append([j])
  12. dataset_item.sort()
  13. return dataset_item
  14. def get_freq_item(dataset, cand_list, min_sup):
  15. """
  16. 获取频繁项集及计数
  17. :param dataset: 数据集
  18. :param cand_list: 候选集
  19. :param min_sup: 最小支持度
  20. :return: 频繁项集及计数和非频繁项集
  21. """
  22. cand_list_num = {} # 候选集计数
  23. freq_list = [] # 存储频繁项集
  24. freq_list_num = {} # 频繁项集计数
  25. unfreq_list = [] # 存储非频繁项集
  26. for i in cand_list:
  27. for j in dataset:
  28. if set(i).issubset(set(j)): # 判断是否为子集
  29. cand_list_num[tuple(i)] = cand_list_num.get(tuple(i), 0) + 1
  30. # list 和dict不能作为主键
  31. for i in cand_list_num:
  32. if cand_list_num[i] >= min_sup:
  33. freq_list.append(list(i))
  34. freq_list_num[i] = cand_list_num[i]
  35. else:
  36. unfreq_list.append(list(i))
  37. return freq_list, freq_list_num, unfreq_list
  38. def get_candiate(freq_list, unfreq_list):
  39. """
  40. 获得候选集
  41. :param freq_list: 上一频繁项集
  42. :param unfreq_list: 上一非频繁项集
  43. :return: 候选集
  44. """
  45. cand_list = [] # 候选集
  46. length = len(freq_list[0]) + 1 # 记录上一单个频繁项集的长度+1
  47. for i in freq_list:
  48. for j in freq_list:
  49. com_item = list(set(i) | set(j)) # 求和集
  50. com_item.sort() # 排个序
  51. if len(com_item) == length and com_item not in cand_list:
  52. cand_list.append(com_item)
  53. # 根据频繁项集的子集是频繁的,去除组合后的不该出现的候选集
  54. for m in unfreq_list:
  55. for n in cand_list:
  56. if set(m).issubset(set(n)):
  57. cand_list.remove(n)
  58. return cand_list
  59. def Apriori(dataset, min_sup=2):
  60. """
  61. Apriori算法
  62. :param dataset: 数据集
  63. :param min_sup: 最小支持度
  64. :return: 所有频繁集,频繁集计数
  65. """
  66. first_can_list = get_first_item(dataset) # 候选1项集
  67. freq_list, first_can_list_num, unfreq_list = get_freq_item(dataset, first_can_list, min_sup) # 频繁1项集和计数字典
  68. freq_all_list = [freq_list] # 所有频繁项集
  69. freq_all_list_num = first_can_list_num # 所有频繁项集计数
  70. while True:
  71. cand_list = get_candiate(freq_list, unfreq_list)
  72. freq_list, freq_list_num, unfreq_list = get_freq_item(dataset, cand_list, min_sup)
  73. freq_all_list.append(freq_list) # 更新频繁集
  74. freq_all_list_num.update(freq_list_num) # 更新频繁集计数字典
  75. if len(freq_list) <= 1:
  76. break
  77. freq_all_list = [i for i in freq_all_list if i != []] # 去除最后可能出现的空列表
  78. return freq_all_list, freq_all_list_num
  79. if __name__ == '__main__':
  80. dataset = [['I1', 'I2', 'I5'],
  81. ['I2', 'I4'],
  82. ['I2', 'I3'],
  83. ['I1', 'I2', 'I4'],
  84. ['I1', 'I3'],
  85. ['I2', 'I3'],
  86. ['I1', 'I3'],
  87. ['I1', 'I2', 'I3', 'I5'],
  88. ['I1', 'I2', 'I3']] # 数据集
  89. freq_list, freq_num = Apriori(dataset, min_sup=2)
  90. num = 1
  91. for i in freq_list:
  92. print(f"频繁{num}项集:{i}")
  93. num += 1
  94. for k,v in freq_num.items():
  95. print(f"频繁项集{k} 的个数:{v}")

(2)运行结果

  1. 基于java代码实现

(1)代码

  1. import java.io.BufferedReader;
  2. import java.io.File;
  3. import java.io.FileNotFoundException;
  4. import java.io.FileReader;
  5. import java.io.IOException;
  6. import java.util.ArrayList;
  7. import java.util.HashMap;
  8. import java.util.List;
  9. import java.util.Map;
  10. import java.util.Set;
  11. import java.util.TreeSet;
  12. public class AprioriAlgorithm {
  13. private int minSup;
  14. private static List<String> data;
  15. private static List<Set<String>> dataSet;
  16. public static void main(String[] args) {
  17. long startTime = System.currentTimeMillis();
  18. AprioriAlgorithm apriori = new AprioriAlgorithm();
  19. data = apriori.buildData();
  20. //设置最小支持度
  21. apriori.setMinSup(2);
  22. //构造数据集
  23. data = apriori.buildData();
  24. //构造频繁1项集
  25. List<Set<String>> f1Set = apriori.findF1Item(data);
  26. apriori.printSet(f1Set, 1);
  27. List<Set<String>> result = f1Set;
  28. int i = 2;
  29. do{
  30. result = apriori.arioriGen(result);
  31. apriori.printSet(result, i);
  32. i++;
  33. }while(result.size() != 0);
  34. long endTime = System.currentTimeMillis();
  35. System.out.println("共用时: " + (endTime - startTime) + "ms");
  36. }
  37. public void setMinSup(int minSup){
  38. this.minSup = minSup;
  39. }
  40. /**
  41. * 构造原始数据集,可以为之提供参数,也可以不提供
  42. * 如果不提供参数,将按程序默认构造的数据集
  43. * 如果提供参数为文件名,则使用文件中的数据集
  44. */
  45. List<String> buildData(String...fileName){
  46. List<String> data = new ArrayList<String>();
  47. if(fileName.length != 0){
  48. File file = new File(fileName[0]);
  49. try{
  50. BufferedReader reader = new BufferedReader(new FileReader(file));
  51. String line;
  52. while( ( line = reader.readLine()) != null ){
  53. data.add(line);
  54. }
  55. }catch (FileNotFoundException e){
  56. e.printStackTrace();
  57. }catch (IOException e){
  58. e.printStackTrace();
  59. }
  60. }else{
  61. data.add("I1 I2 I5");
  62. data.add("I2 I4");
  63. data.add("I2 I3");
  64. data.add("I1 I2 T4");
  65. data.add("I1 I3");
  66. data.add("I2 I3");
  67. data.add("I1 I3");
  68. data.add("I1 I2 I3 I5");
  69. data.add("I1 I2 I3");
  70. }
  71. dataSet = new ArrayList<Set<String>>();
  72. Set<String> dSet;
  73. for(String d : data){
  74. dSet = new TreeSet<String>();
  75. String[] dArr = d.split(" ");
  76. for(String str : dArr){
  77. dSet.add(str);
  78. }
  79. dataSet.add(dSet);
  80. }
  81. return data;
  82. }
  83. /**
  84. * 找出候选1项集
  85. * @param data
  86. * @return result
  87. */
  88. List<Set<String>> findF1Item(List<String> data){
  89. List<Set<String>> result = new ArrayList<Set<String>>();
  90. Map<String, Integer> dc = new HashMap<String, Integer>();
  91. for(String d : data){
  92. String[] items = d.split(" ");
  93. for(String item : items){
  94. if(dc.containsKey(item)) {
  95. dc.put(item, dc.get(item)+1);
  96. }else{
  97. dc.put(item, 1);
  98. }
  99. }
  100. }
  101. Set<String> itemKeys = dc.keySet();
  102. Set<String> tempKeys = new TreeSet<String>();
  103. for(String str : itemKeys){
  104. tempKeys.add(str);
  105. }
  106. for(String item : tempKeys){
  107. if(dc.get(item) >= minSup) {
  108. Set<String> f1Set = new TreeSet<String>();
  109. f1Set.add(item);
  110. result.add(f1Set);
  111. }
  112. }
  113. return result;
  114. }
  115. /**
  116. * 利用arioriGen方法由k-1项集生成k项集
  117. *@param preSet
  118. *@return
  119. *
  120. */
  121. List<Set<String>> arioriGen(List<Set<String>> preSet) {
  122. List<Set<String>> result = new ArrayList<Set<String>>();
  123. int preSetSize = preSet.size();
  124. for(int i = 0; i < preSetSize - 1; i++){
  125. for(int j = i + 1; j < preSetSize; j++ ){
  126. String[] strA1 = preSet.get(i).toArray(new String[0]);
  127. String[] strA2 = preSet.get(j).toArray(new String[0]);
  128. if(isCanLink(strA1, strA2)) {//判断两个k-1项集是否符合连接成K项集的条件
  129. Set<String> set = new TreeSet<String>();
  130. for(String str : strA1){
  131. set.add(str);//将strA1加入set中连成前K-1项集
  132. }
  133. set.add((String) strA2[strA2.length-1]);//连接成K项集
  134. //判断K项集是否需要剪切掉,如果不需要被cut掉,则加入到k项集的列表中
  135. if(!isNeedCut(preSet, set)) {
  136. result.add(set);
  137. }
  138. }
  139. }
  140. }
  141. return checkSupport(result);//返回的都是频繁K项集
  142. }
  143. /**
  144. * 把set中的项集与数量集比较并进行计算,求出支持度大于要求的项集
  145. * @return
  146. */
  147. List<Set<String>> checkSupport(List<Set<String> > setList){
  148. List<Set<String>> result = new ArrayList<Set<String>>();
  149. boolean flag = true;
  150. int [] counter = new int[setList.size()];
  151. for(int i = 0; i < setList.size(); i++){
  152. for(Set<String> dSets : dataSet) {
  153. if(setList.get(i).size() > dSets.size()){
  154. flag = true;
  155. }else{
  156. for(String str : setList.get(i)){
  157. if(!dSets.contains(str)){
  158. flag = false;
  159. break;
  160. }
  161. }
  162. if(flag) {
  163. counter[i] += 1;
  164. } else{
  165. flag = true;
  166. }
  167. }
  168. }
  169. }
  170. for(int i = 0; i < setList.size(); i++){
  171. if (counter[i] >= minSup) {
  172. result.add(setList.get(i));
  173. }
  174. }
  175. return result;
  176. }
  177. /**
  178. * 判断两个项集能否执行连接操作
  179. * @param s1
  180. * @param s2
  181. * @return
  182. */
  183. boolean isCanLink(String [] s1, String[] s2){
  184. boolean flag = true;
  185. if(s1.length == s2.length) {
  186. for(int i = 0; i < s1.length - 1; i ++){
  187. if(!s1[i].equals(s2[i])){
  188. flag = false;
  189. break;
  190. }
  191. }
  192. if(s1[s1.length - 1].equals(s2[s2.length - 1])){
  193. flag = false;
  194. }
  195. }else{
  196. flag = true;
  197. }
  198. return flag;
  199. }
  200. /**
  201. * 判断set是否需要被cut
  202. *
  203. * @param setList
  204. * @param set
  205. * @return
  206. */
  207. boolean isNeedCut(List<Set<String>> setList, Set<String> set) {//setList指频繁K-1项集,set指候选K项集
  208. boolean flag = false;
  209. List<Set<String>> subSets = getSubset(set);//获得K项集的所有k-1项集
  210. for ( Set<String> subSet : subSets) {
  211. //判断当前的k-1项集set是否在频繁k-1项集中出现,如果出现,则不需要cut
  212. //若没有出现,则需要被cut
  213. if( !isContained(setList, subSet)){
  214. flag = true;
  215. break;
  216. }
  217. }
  218. return flag;
  219. }
  220. /**
  221. * 功能:判断k项集的某k-1项集是否包含在频繁k-1项集列表中
  222. *
  223. * @param setList
  224. * @param set
  225. * @return
  226. */
  227. boolean isContained(List<Set<String>> setList, Set<String> set){
  228. boolean flag = false;
  229. int position = 0;
  230. for( Set<String> s : setList ) {
  231. String [] sArr = s.toArray(new String[0]);
  232. String [] setArr = set.toArray(new String[0]);
  233. for(int i = 0; i < sArr.length; i++) {
  234. if ( sArr[i].equals(setArr[i])){
  235. //如果对应位置的元素相同,则position为当前位置的值
  236. position = i;
  237. } else{
  238. break;
  239. }
  240. }
  241. //如果position等于数组的长度,说明已经找到某个setList中的集合与
  242. //set集合相同了,退出循环,返回包含
  243. //否则,把position置为0进入下一个比较
  244. if ( position == sArr.length - 1) {
  245. flag = true;
  246. break;
  247. } else {
  248. flag = false;
  249. position = 0;
  250. }
  251. }
  252. return flag;
  253. }
  254. /**
  255. * 获得k项集的所有k-1项子集
  256. *
  257. * @param set
  258. * @return
  259. */
  260. List<Set<String>> getSubset(Set <String> set){
  261. List<Set<String>> result = new ArrayList<Set<String>>();
  262. String [] setArr = set.toArray(new String[0]);
  263. for( int i = 0; i < setArr.length; i++){
  264. Set<String> subSet = new TreeSet<String>();
  265. for(int j = 0; j < setArr.length; j++){
  266. if( i != j){
  267. subSet.add((String) setArr[j]);
  268. }
  269. }
  270. result.add(subSet);
  271. }
  272. return result;
  273. }
  274. /**
  275. * 功能:打印频繁项集
  276. */
  277. void printSet(List<Set<String>> setList, int i){
  278. System.out.print("频繁" + i + "项集: 共" + setList.size() + "项: {");
  279. for(Set<String> set : setList) {
  280. System.out.print("[");
  281. for(String str : set) {
  282. System.out.print(str + " ");
  283. }
  284. System.out.print("], ");
  285. }
  286. System.out.println("}");
  287. }
  288. }

(2)运行结果

三、总结

在日常生活中,利用关联分析能够帮助我们发现大型数据集之间的关联规则,描述数据之间的密切度,同时又有利于我们进行决策等。

参考

数据挖掘十大算法—— Apriori - 知乎 (zhihu.com)

Apriori算法详解 - 知乎 (zhihu.com)

数据挖掘入门系列教程(四点五)之Apriori算法 - 知乎 (zhihu.com)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/489911
推荐阅读
相关标签
  

闽ICP备14008679号