当前位置:   article > 正文

推荐算法:协同过滤推荐算法、相似度计算_杰卡德相似度计算

杰卡德相似度计算

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


1.3 推荐算法

学习目标

  • 了解推荐模型构建流程
  • 理解协同过滤原理

  • 记忆相似度计算方法

  • 应用杰卡德相似度实现简单协同过滤推荐案例

1 推荐模型构建流程

Data(数据)->Features(特征)->ML Algorithm(选择算法训练模型)->Prediction Output(预测输出)

  • 数据清洗/数据处理

    • 数据来源
      • 显性数据
        • Rating 打分
        • Comments 评论/评价
      • 隐形数据
        •  Order history 历史订单
        •  Cart events 加购物车
        •  Page views 页面浏览
        •  Click-thru 点击
        •  Search log 搜索记录
    • 数据量/数据能否满足要求
  • 特征工程

    • 从数据中筛选特征

      • 一个给定的商品,可能被拥有类似品味或需求的用户购买

      • 使用用户行为数据描述商品

用数据表示特征

  • 将所有用户行为合并在一起 ,形成一个user-item 矩阵

  • 选择合适的算法

    • 协同过滤
    • 基于内容
  • 产生推荐结果

    • 对推荐结果进行评估(评估方法后面章节介绍),评估通过后上线

2 最经典的推荐算法:协同过滤推荐算法(Collaborative Filtering)

算法思想:物以类聚,人以群分

基本的协同过滤推荐算法基于以下假设:

  • “跟你喜好相似的人喜欢的东西你也很有可能喜欢” :基于用户的协同过滤推荐(User-based CF)
  • “跟你喜欢的东西相似的东西你也很有可能喜欢 ”:基于物品的协同过滤推荐(Item-based CF)

实现协同过滤推荐有以下几个步骤:

  1. 找出最相似的人或物品:TOP-N相似的人或物品

    通过计算两两的相似度来进行排序,即可找出TOP-N相似的人或物品

  2. 根据相似的人或物品产生推荐结果

    利用TOP-N结果生成初始推荐结果,然后过滤掉用户已经有过记录的物品或明确表示不感兴趣的物品

以下是一个简单的示例,数据集相当于一个用户对物品的购买记录表:打勾表示用户对物品的有购买记录

  • 关于相似度计算这里先用一个简单的思想:如有两个同学X和Y,X同学爱好[足球、篮球、乒乓球],Y同学爱好[网球、足球、篮球、羽毛球],可见他们的共同爱好有2个,那么他们的相似度可以用:2/3 * 2/4 = 1/3 ≈ 0.33 来表示。

    User-Based CF

Item-Based CF

通过前面两个demo,相信大家应该已经对协同过滤推荐算法的设计与实现有了比较清晰的认识。

3 相似度计算(Similarity Calculation)

相似度的计算方法

  • 欧氏距离, 是一个欧式空间下度量距离的方法. 两个物体, 都在同一个空间下表示为两个点, 假如叫做p,q, 分别都是n个坐标, 那么欧式距离就是衡量这两个点之间的距离. 欧氏距离不适用于布尔向量之间

​ 欧氏距离的值是一个非负数, 最大值正无穷, 通常计算相似度的结果希望是[-1,1]或[0,1]之间,一般可以使用

​ 如下转化公式:

:

余弦相似度

  • 度量的是两个向量之间的夹角, 用夹角的余弦值来度量相似的情况
  • 两个向量的夹角为0是,余弦值为1, 当夹角为90度是余弦值为0,为180度是余弦值为-1
  • 余弦相似度在度量文本相似度, 用户相似度 物品相似度的时候较为常用
  • 余弦相似度的特点, 与向量长度无关,余弦相似度计算要对向量长度归一化, 两个向量只要方向一致,无论程度强弱, 都可以视为'相似'

皮尔逊相关系数Pearson

  • 实际上也是余弦相似度, 不过先对向量做了中心化, 向量a b各自减去向量的均值后, 再计算余弦相似度
  • 皮尔逊相似度计算结果在-1,1之间 -1表示负相关, 1表示正相关
  • 度量两个变量是不是同增同减
  • 皮尔逊相关系数度量的是两个变量的变化趋势是否一致, 不适合计算布尔值向量之间的相关度

杰卡德相似度 Jaccard

  • 两个集合的交集元素个数在并集中所占的比例, 非常适用于布尔向量表示
  • 分子是两个布尔向量做点积计算, 得到的就是交集元素的个数
  • 分母是两个布尔向量做或运算, 再求元素和

  • 如何选择余弦相似度

    • 余弦相似度/皮尔逊相关系数适合用户评分数据(实数值),
    • 杰卡德相似度适用于隐式反馈数据(0,1布尔值 是否收藏,是否点击,是否加购物车)

4 协同过滤推荐算法代码实现:

  • 构建数据集:

    1. users = ["User1", "User2", "User3", "User4", "User5"]
    2. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    3. # 构建数据集
    4. datasets = [
    5. ["buy",None,"buy","buy",None],
    6. ["buy",None,None,"buy","buy"],
    7. ["buy",None,"buy",None,None],
    8. [None,"buy",None,"buy","buy"],
    9. ["buy","buy","buy",None,"buy"],
    10. ]
  • 计算时我们数据通常都需要对数据进行处理,或者编码,目的是为了便于我们对数据进行运算处理,比如这里是比较简单的情形,我们用1、0分别来表示用户的是否购买过该物品,则我们的数据集其实应该是这样的:

    1. users = ["User1", "User2", "User3", "User4", "User5"]
    2. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    3. # 用户购买记录数据集
    4. datasets = [
    5. [1,0,1,1,0],
    6. [1,0,0,1,1],
    7. [1,0,1,0,0],
    8. [0,1,0,1,1],
    9. [1,1,1,0,1],
    10. ]
    11. import pandas as pd
    12. df = pd.DataFrame(datasets,
    13. columns=items,
    14. index=users)
    15. print(df)
  • 有了数据集,接下来我们就可以进行相似度的计算,不过对于相似度的计算其实是有很多专门的相似度计算方法的,比如余弦相似度、皮尔逊相关系数、杰卡德相似度等等。这里我们选择使用杰卡德相似系数[0,1]

    1. from sklearn.metrics import jaccard_similarity_score
    2. # 直接计算某两项的杰卡德相似系数
    3. # 计算Item A 和Item B的相似度
    4. print(jaccard_similarity_score(df["Item A"], df["Item B"]))
    5. # 计算所有的数据两两的杰卡德相似系数
    6. from sklearn.metrics.pairwise import pairwise_distances
    7. # 计算用户间相似度
    8. user_similar = 1 - pairwise_distances(df, metric="jaccard")
    9. user_similar = pd.DataFrame(user_similar, columns=users, index=users)
    10. print("用户之间的两两相似度:")
    11. print(user_similar)
    12. # 计算物品间相似度
    13. item_similar = 1 - pairwise_distances(df.T, metric="jaccard")
    14. item_similar = pd.DataFrame(item_similar, columns=items, index=items)
    15. print("物品之间的两两相似度:")
    16. print(item_similar)

    有了两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了

  • User-Based CF

    1. import pandas as pd
    2. import numpy as np
    3. from pprint import pprint
    4. users = ["User1", "User2", "User3", "User4", "User5"]
    5. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    6. # 用户购买记录数据集
    7. datasets = [
    8. [1,0,1,1,0],
    9. [1,0,0,1,1],
    10. [1,0,1,0,0],
    11. [0,1,0,1,1],
    12. [1,1,1,0,1],
    13. ]
    14. df = pd.DataFrame(datasets,
    15. columns=items,
    16. index=users)
    17. # 计算所有的数据两两的杰卡德相似系数
    18. from sklearn.metrics.pairwise import pairwise_distances
    19. # 计算用户间相似度 1-杰卡德距离=杰卡德相似度
    20. user_similar = 1 - pairwise_distances(df, metric="jaccard")
    21. user_similar = pd.DataFrame(user_similar, columns=users, index=users)
    22. print("用户之间的两两相似度:")
    23. print(user_similar)
    24. topN_users = {}
    25. # 遍历每一行数据
    26. for i in user_similar.index:
    27. # 取出每一列数据,并删除自身,然后排序数据
    28. _df = user_similar.loc[i].drop([i])
    29. #sort_values 排序 按照相似度降序排列
    30. _df_sorted = _df.sort_values(ascending=False)
    31. # 从排序之后的结果中切片 取出前两条(相似度最高的两个)
    32. top2 = list(_df_sorted.index[:2])
    33. topN_users[i] = top2
    34. print("Top2相似用户:")
    35. pprint(topN_users)
    36. # 准备空白dict用来保存推荐结果
    37. rs_results = {}
    38. #遍历所有的最相似用户
    39. for user, sim_users in topN_users.items():
    40. rs_result = set() # 存储推荐结果
    41. for sim_user in sim_users:
    42. # 构建初始的推荐结果
    43. rs_result = rs_result.union(set(df.ix[sim_user].replace(0,np.nan).dropna().index))
    44. # 过滤掉已经购买过的物品
    45. rs_result -= set(df.ix[user].replace(0,np.nan).dropna().index)
    46. rs_results[user] = rs_result
    47. print("最终推荐结果:")
    48. pprint(rs_results)
  • Item-Based CF

    1. import pandas as pd
    2. import numpy as np
    3. from pprint import pprint
    4. users = ["User1", "User2", "User3", "User4", "User5"]
    5. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    6. # 用户购买记录数据集
    7. datasets = [
    8. [1,0,1,1,0],
    9. [1,0,0,1,1],
    10. [1,0,1,0,0],
    11. [0,1,0,1,1],
    12. [1,1,1,0,1],
    13. ]
    14. df = pd.DataFrame(datasets,
    15. columns=items,
    16. index=users)
    17. # 计算所有的数据两两的杰卡德相似系数
    18. from sklearn.metrics.pairwise import pairwise_distances
    19. # 计算物品间相似度
    20. item_similar = 1 - pairwise_distances(df.T, metric="jaccard")
    21. item_similar = pd.DataFrame(item_similar, columns=items, index=items)
    22. print("物品之间的两两相似度:")
    23. print(item_similar)
    24. topN_items = {}
    25. # 遍历每一行数据
    26. for i in item_similar.index:
    27. # 取出每一列数据,并删除自身,然后排序数据
    28. _df = item_similar.loc[i].drop([i])
    29. _df_sorted = _df.sort_values(ascending=False)
    30. top2 = list(_df_sorted.index[:2])
    31. topN_items[i] = top2
    32. print("Top2相似物品:")
    33. pprint(topN_items)
    34. rs_results = {}
    35. # 构建推荐结果
    36. for user in df.index: # 遍历所有用户
    37. rs_result = set()
    38. for item in df.ix[user].replace(0,np.nan).dropna().index: # 取出每个用户当前已购物品列表
    39. # 根据每个物品找出最相似的TOP-N物品,构建初始推荐结果
    40. rs_result = rs_result.union(topN_items[item])
    41. # 过滤掉用户已购的物品
    42. rs_result -= set(df.ix[user].replace(0,np.nan).dropna().index)
    43. # 添加到结果中
    44. rs_results[user] = rs_result
    45. print("最终推荐结果:")
    46. pprint(rs_results)

关于协同过滤推荐算法使用的数据集

在前面的demo中,我们只是使用用户对物品的一个购买记录,类似也可以是比如浏览点击记录、收听记录等等。这样数据我们预测的结果其实相当于是在预测用户是否对某物品感兴趣,对于喜好程度不能很好的预测。

因此在协同过滤推荐算法中其实会更多的利用用户对物品的“评分”数据来进行预测,通过评分数据集,我们可以预测用户对于他没有评分过的物品的评分。其实现原理和思想和都是一样的,只是使用的数据集是用户-物品的评分数据。

关于用户-物品评分矩阵

用户-物品的评分矩阵,根据评分矩阵的稀疏程度会有不同的解决方案

  • 稠密评分矩阵

  • 稀疏评分矩阵

这里先介绍稠密评分矩阵的处理,稀疏矩阵的处理相对会复杂一些,我们到后面再来介绍。

使用协同过滤推荐算法对用户进行评分预测

  • 数据集:

  • 目的:预测用户1对物品E的评分

  • 构建数据集:注意这里构建评分数据时,对于缺失的部分我们需要保留为None,如果设置为0那么会被当作评分值为0去对待

    1. users = ["User1", "User2", "User3", "User4", "User5"]
    2. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    3. # 用户购买记录数据集
    4. datasets = [
    5. [5,3,4,4,None],
    6. [3,1,2,3,3],
    7. [4,3,4,3,5],
    8. [3,3,1,5,4],
    9. [1,5,5,2,1],
    10. ]
  • 计算相似度:对于评分数据这里我们采用皮尔逊相关系数[-1,1]来计算,-1表示强负相关,+1表示强正相关

    pandas中corr方法可直接用于计算皮尔逊相关系数

    1. df = pd.DataFrame(datasets,
    2. columns=items,
    3. index=users)
    4. print("用户之间的两两相似度:")
    5. # 直接计算皮尔逊相关系数
    6. # 默认是按列进行计算,因此如果计算用户间的相似度,当前需要进行转置
    7. user_similar = df.T.corr()
    8. print(user_similar.round(4))
    9. print("物品之间的两两相似度:")
    10. item_similar = df.corr()
    11. print(item_similar.round(4))
    1. # 运行结果:
    2. 用户之间的两两相似度:
    3. User1 User2 User3 User4 User5
    4. User1 1.0000 0.8528 0.7071 0.0000 -0.7921
    5. User2 0.8528 1.0000 0.4677 0.4900 -0.9001
    6. User3 0.7071 0.4677 1.0000 -0.1612 -0.4666
    7. User4 0.0000 0.4900 -0.1612 1.0000 -0.6415
    8. User5 -0.7921 -0.9001 -0.4666 -0.6415 1.0000
    9. 物品之间的两两相似度:
    10. Item A Item B Item C Item D Item E
    11. Item A 1.0000 -0.4767 -0.1231 0.5322 0.9695
    12. Item B -0.4767 1.0000 0.6455 -0.3101 -0.4781
    13. Item C -0.1231 0.6455 1.0000 -0.7206 -0.4276
    14. Item D 0.5322 -0.3101 -0.7206 1.0000 0.5817
    15. Item E 0.9695 -0.4781 -0.4276 0.5817 1.0000

    可以看到与用户1最相似的是用户2和用户3;与物品A最相似的物品分别是物品E和物品D。

    注意:我们在预测评分时,往往是通过与其有正相关的用户或物品进行预测,如果不存在正相关的情况,那么将无法做出预测。这一点尤其是在稀疏评分矩阵中尤为常见,因为稀疏评分矩阵中很难得出正相关系数。

  • 评分预测:

    User-Based CF 评分预测:使用用户间的相似度进行预测

    关于评分预测的方法也有比较多的方案,下面介绍一种效果比较好的方案,该方案考虑了用户本身的评分评分以及近邻用户的加权平均相似度打分来进行预测:

 我们要预测用户1对物品E的评分,那么可以根据与用户1最近邻的用户2和用户3进行预测,计算如下:

最终预测出用户1对物品5的评分为3.91

Item-Based CF 评分预测:使用物品间的相似度进行预测

这里利用物品相似度预测的计算同上,同样考虑了用户自身的平均打分因素,结合预测物品与相似物品的加权平均相似度打分进行来进行预测

我们要预测用户1对物品E的评分,那么可以根据与物品E最近邻的物品A和物品D进行预测,计算如下:

对比可见,User-Based CF预测评分和Item-Based CF的评分结果也是存在差异的,因为严格意义上他们其实应当属于两种不同的推荐算法,各自在不同的领域不同场景下,都会比另一种的效果更佳,但具体哪一种更佳,必须经过合理的效果评估,因此在实现推荐系统时这两种算法往往都是需要去实现的,然后对产生的推荐效果进行评估分析选出更优方案。


推荐系统构建流程

  1. 推荐系统构建流程:建立数据仓库(hbase/hdfs)存储数据 -> 数据清洗 -> 特征工程 -> 选择算法训练模型+模型预测输出
  2. 1.数据清洗/数据处理/数据来源(数据量/数据能否满足要求)
  3. 1.显性数据
  4. Rating 打分
  5. Comments 评论/评价
  6. 2.隐形数据
  7. Order history 历史订单
  8.  Cart events 加购物车
  9. Page views 页面浏览
  10.   Click-thru 点击
  11. Search log 搜索记录
  12. 2.特征工程
  13. 1.从数据中筛选特征
  14. 一个给定的商品,可能被拥有类似品味或需求的用户购买
  15. 使用用户行为数据描述商品

  1. 2.用数据表示特征
  2. 将所有用户行为合并在一起 ,形成一个user-item 矩阵
  3. 从矩阵中获取出有效数据的部分做特征工程

  1. 3.选择合适的算法
  2. 1.协同过滤(基于内容(物品)或基于用户产生推荐结果)
  3. 1.算法思想:物以类聚,人以群分
  4. 2.基本的协同过滤推荐算法基于以下假设:
  5. 1.“跟你喜好相似的人喜欢的东西你也很有可能喜欢”:基于用户的协同过滤推荐(User-based CF)。
  6. 基于用户的稀疏矩阵:矩阵行名为users,矩阵列名为items。
  7. 2.“跟你喜欢的东西相似的东西你也很有可能喜欢 ”:基于物品的协同过滤推荐(Item-based CF)。
  8. 基于内容(物品)的稀疏矩阵:矩阵行名为items,矩阵列名为users。
  9. 2.实现协同过滤推荐有以下几个步骤:
  10. 1.每个人与人之间或者每个物与物之间都有相似度,只是相似度的高低区别,求出TOP-N相似的人与人之间或物与物之间相似度。
  11. 2.根据TOP-N相似的人与人之间或物与物之间相似度产生推荐结果。
  12. 利用TOP-N结果生成初始推荐结果,然后过滤掉用户已经有过记录的物品或明确表示不感兴趣的物品。
  13. 用户已经有过记录的物品就不需要再推荐,用户表示不感兴趣(点击踩动作/不感兴趣的按钮)的物品就不需要再推荐。
  14. 3.关于相似度计算这里先用一个简单的思想:
  15. 如有两个同学X和Y,X同学爱好[足球、篮球、乒乓球],Y同学爱好[网球、足球、篮球、羽毛球],
  16. 可见他们的共同爱好有2个,X同学3个爱好中有2个共同爱好即2/3,Y同学4个爱好中有2个共同爱好即2/4
  17. 那么他们的相似度可以用:2/3 * 2/4 = 1/30.33 来表示。
  18. 4.“跟你喜好相似的人喜欢的东西你也很有可能喜欢”:基于用户的协同过滤推荐(User-based CF)。
  19. 基于用户的稀疏矩阵:矩阵行名为users,矩阵列名为items。

  1. 5.“跟你喜欢的东西相似的东西你也很有可能喜欢 ”:基于物品的协同过滤推荐(Item-based CF)。
  2. 基于内容(物品)的稀疏矩阵:矩阵行名为items,矩阵列名为users。

  1. 4.对推荐结果进行评估,评估通过后上线

相似度计算

  1. 注意:归一化为[-1,1]或[0,1]之间,标准化为均值为0和方差为1
  2. 1.欧氏距离
  3. 计算的距离近则相似度高。
  4. ​ 欧氏距离的值是一个非负数。最大值正无穷。通常计算相似度的结果希望是[-1,1]或[0,1]之间,那便需要把一个0到正无穷的范围归一化为[-1,1]或[0,1]之间。
  5. 一般可以使用1/(1+E(p,q))
  6. 2.余弦相似度
  7. 1.度量的是两个向量之间的夹角, 用夹角的余弦值来度量相似的情况
  8. 两个向量的夹角为0则余弦值为1表示完全相似。当夹角为90度则余弦值为0。当夹角为180度则余弦值为-1表示完全不相似。
  9. 余弦相似度在度量文本相似度/用户相似度/物品相似度的时候较为常用
  10. 2.余弦相似度的特点:与向量长度无关,余弦相似度计算要对向量长度归一化, 两个向量只要方向一致,无论程度强弱, 都可以视为'相似'
  11. 3.余弦相似度的漏洞:
  12. 余弦相似度虽然与向量长度无关,但是实际环境中需要考虑向量长度,不仅要考虑夹角还要向量长度。
  13. 比如用户A对电影1、电影2的评分分别为2分和3分,用户B对电影1、电影2的评分分别为4分和5分,
  14. 那么2分和3分之间的夹角 与 4分和5分之间的夹角 两者有点相近的,但是评分满分是5的话,
  15. 2分和3分的打分属于中低打分,4分和5分属于中高打分,那此时的余弦相似度无法相近,不考虑向量长度便是余弦相似度的漏洞,
  16. 所以余弦相似度计算还要对向量长度进行归一化,这样便可以只考虑两个向量只要方向一致,无论程度强弱,都可以视为'相似'
  17. 3.皮尔逊相关系数
  18. 1.实际上也是余弦相似度, 不过先对向量做了中心化, 向量a b各自减去向量的均值后, 再计算余弦相似度。
  19. 考虑向量中心化的问题,也即用于解决余弦相似度的漏洞问题(无法考虑向量长度的问题)。
  20. 比如评分满分是5,用户A对电影1、电影2的评分分别为2分和3分,用户B对电影1、电影2的评分分别为4分和5分,
  21. 那么2分和3分都减去他们之间的平均值2.54分和5分都减去他们之间的平均值4.5
  22. 2.皮尔逊相似度计算结果在-1,1之间 -1表示负相关, 1表示正相关
  23. 度量两个变量是不是同增同减
  24. 皮尔逊相关系数度量的是两个变量的变化趋势是否一致, 不适合计算布尔值向量之间的相关度
  25. 3.余弦相似度和皮尔逊相关系数之间如何选择呢
  26. 1.余弦相似度的计算复杂度 比 皮尔逊相关系数的计算复杂度 要低,所以如果算力不高的时候可以选择余弦相似度。
  27. 2.皮尔逊相关系数的精确度 比 余弦相似度的精确度 要高,所以要求精确度比较高的时候可以选择皮尔逊相关系数。
  28. 3.余弦相似度/皮尔逊相关系数适合计算连续性数值,比如用户评分数据(实数值),不适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)。
  29. 如果是分类型的连续型实数值(0/1/2/3...)则可以转换为one-hot编码(即转换为0/1布尔值向量之间的相关度计算问题,即也可以使用杰卡德相似度来计算)。
  30. 4.杰卡德相似度Jaccard
  31. 1.两个集合的交集元素个数在并集中所占的比例, 非常适用于布尔向量表示
  32. 2.分子是两个布尔向量做点积计算, 得到的就是交集元素的个数
  33. 分母是两个布尔向量做或运算, 再求元素和

  1. 3.交集(∩),并集(∪)。
  2. 集合论中,设AB是两个集合,由所有属于集合A且属于集合B的元素所组成的集合,叫做集合A与集合B的交集,记作AB

	4.分子:值为(1+1),代表A交B的交集,即A∩B那么返回1

	5.分母:(1+1+1)和(1+1+1+1),代表A和B的并集(即A∪B),然后减去A和B的交集(即A∩B),即得A∪B-A∩B

  1. 5.相似度算法选择
  2. 1.余弦相似度/皮尔逊相关系数适合用户评分数据(实数值),不适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)
  3. 2.杰卡德相似度适用于隐式反馈数据,适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)
  4. 3.如果是分类型的连续型实数值(0/1/2/3...)则可以转换为one-hot编码(即转换为0/1布尔值向量之间的相关度计算问题,即也可以使用杰卡德相似度来计算)。

基于用户的协同过滤推荐/基于基于物品的协同过滤推荐:预测用户是否对某物品感兴趣,计算的是0/1布尔值向量之间的相关度

  1. # 构建数据集:users为行索引(行名),items为列索引(列名)
  2. users = ["User1", "User2", "User3", "User4", "User5"]
  3. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
  4. # 构建数据集:"buy"1,None为0
  5. # datasets = [
  6. # ["buy",None,"buy","buy",None],
  7. # ["buy",None,None,"buy","buy"],
  8. # ["buy",None,"buy",None,None],
  9. # [None,"buy",None,"buy","buy"],
  10. # ["buy","buy","buy",None,"buy"],
  11. # ]
  12. """
  13. 计算时我们数据通常都需要对数据进行处理,或者编码,目的是为了便于我们对数据进行运算处理,
  14. 比如这里是比较简单的情形,我们用1、0分别来表示用户的是否购买过该物品,则我们的数据集其实应该是这样的:
  15. Item A Item B Item C Item D Item E
  16. User1 1 0 1 1 0
  17. User2 1 0 0 1 1
  18. User3 1 0 1 0 0
  19. User4 0 1 0 1 1
  20. User5 1 1 1 0 1
  21. 注意:
  22. 1.因为一开始datasets所构建的数据集df.values为矩阵行名(行索引)为用户users,矩阵列名(列索引)为物品items 才能计算用户和用户之间的相似度,
  23. 因此基于用户的协同过滤推荐(User-based CF)计算用户和用户之间的相似度使用:pairwise_distances(df.values, metric="jaccard")。
  24. 2.datasets所构建的数据集df.values.T转置后变为矩阵行名(行索引)为物品items,矩阵列名(列索引)为用户users 才能计算物品和物品之间的相似度,
  25. 因此基于物品的协同过滤推荐(Item-based CF))计算物品和物品之间的相似度使用:pairwise_distances(df.values.T, metric="jaccard")。
  26. """
  27. # 用户购买记录数据集:"buy"1,None为0
  28. datasets = [
  29. [1,0,1,1,0],
  30. [1,0,0,1,1],
  31. [1,0,1,0,0],
  32. [0,1,0,1,1],
  33. [1,1,1,0,1],
  34. ]
  35. import pandas as pd
  36. #index=users:users为行索引(行名)。columns=items:items为列索引(列名)
  37. # df = pd.DataFrame(datasets, columns=items, index=users, dtype=bool)
  38. df = pd.DataFrame(datasets, columns=items, index=users)
  39. # print(df)
  40. # print(df.values)
  41. # [[ True False True True False]
  42. # [ True False False True True]
  43. # [ True False True False False]
  44. # [False True False True True]
  45. # [ True True True False True]]
  46. #-------------------------------------------------------------------------------------------------------------#
  47. """
  48. 有了数据集,接下来我们就可以进行相似度的计算,不过对于相似度的计算其实是有很多专门的相似度计算方法的,
  49. 比如余弦相似度、皮尔逊相关系数、杰卡德相似度等等。这里我们选择使用杰卡德相似系数计算datasets=[0,1]值。
  50. """
  51. from sklearn.metrics import jaccard_similarity_score
  52. # 直接计算某两项的杰卡德相似系数
  53. # 计算Item A 和Item B的相似度(物品之间的两两相似度):0.2
  54. # print(jaccard_similarity_score(df["Item A"], df["Item B"])) #0.2
  55. """
  56. 报错:AttributeError: 'DataFrame' object has no attribute 'dtype'
  57. 解决:pairwise_distances(df, metric="jaccard") 修改为 pairwise_distances(df.values, metric="jaccard")
  58. 警告:DataConversionWarning: Data was converted to boolean for metric jaccard。warnings.warn(msg, DataConversionWarning)
  59. 解释:DataConversionWarning:数据已转换为度量jaccard的布尔值警告.warn(消息,数据转换警告)
  60. 解决:设置dtype=bool,比如 df = pd.DataFrame(datasets, columns=items, index=users, dtype=bool)
  61. 警告:DeprecationWarning: jaccard_similarity_score has been deprecated and replaced with jaccard_score.
  62. It will be removed in version 0.23. This implementation has surprising behavior for binary and multiclass classification tasks.
  63. 'and multiclass classification tasks.', DeprecationWarning)
  64. 解释:不推荐警告:jaccard_similarity_score已被不推荐并替换为jaccard_score。它将在0.23版中删除。
  65. 此实现对于二进制和多类分类任务和多类分类任务具有令人惊讶的行为。DeprecationWarning)
  66. 分析:jaccard_similarity_score方法已经过时
  67. """
  68. # 计算所有的数据两两的杰卡德相似系数
  69. from sklearn.metrics.pairwise import pairwise_distances
  70. """
  71. 1.“跟你喜好相似的人喜欢的东西你也很有可能喜欢”:基于用户的协同过滤推荐(User-based CF)。
  72. 基于用户的稀疏矩阵:矩阵行名为users,矩阵列名为items。
  73. 2.因为一开始datasets所构建的数据集df.values为矩阵行名(行索引)为用户users,矩阵列名(列索引)为物品items 才能计算用户和用户之间的相似度,
  74. 因此基于用户的协同过滤推荐(User-based CF)计算用户和用户之间的相似度使用:pairwise_distances(df.values, metric="jaccard")。
  75. """
  76. # 计算用户间相似度:metric="jaccard" 使用杰卡德相似系数
  77. user_similar = 1 - pairwise_distances(df.values, metric="jaccard")
  78. #DataFrame构建显示数据
  79. user_similar = pd.DataFrame(user_similar, columns=users, index=users)
  80. # print("用户之间的两两相似度:")
  81. # print(user_similar)
  82. # User1 User2 User3 User4 User5
  83. # User1 1.000000 0.50 0.666667 0.2 0.4
  84. # User2 0.500000 1.00 0.250000 0.5 0.4
  85. # User3 0.666667 0.25 1.000000 0.0 0.5
  86. # User4 0.200000 0.50 0.000000 1.0 0.4
  87. # User5 0.400000 0.40 0.500000 0.4 1.0
  88. """
  89. 1.“跟你喜欢的东西相似的东西你也很有可能喜欢 ”:基于物品的协同过滤推荐(Item-based CF)。
  90. 基于内容(物品)的稀疏矩阵:矩阵行名为items,矩阵列名为users。
  91. 2.datasets所构建的数据集df.values.T转置后变为矩阵行名(行索引)为物品items,矩阵列名(列索引)为用户users 才能计算物品和物品之间的相似度,
  92. 因此基于物品的协同过滤推荐(Item-based CF))计算物品和物品之间的相似度使用:pairwise_distances(df.values.T, metric="jaccard")。
  93. """
  94. # 计算物品间相似度
  95. item_similar = 1 - pairwise_distances(df.values.T, metric="jaccard")
  96. item_similar = pd.DataFrame(item_similar, columns=items, index=items)
  97. # print("物品之间的两两相似度:")
  98. # print(item_similar)
  99. # Item A Item B Item C Item D Item E
  100. # Item A 1.00 0.200000 0.75 0.40 0.400000
  101. # Item B 0.20 1.000000 0.25 0.25 0.666667
  102. # Item C 0.75 0.250000 1.00 0.20 0.200000
  103. # Item D 0.40 0.250000 0.20 1.00 0.500000
  104. # Item E 0.40 0.666667 0.20 0.50 1.000000
  105. #-------------------------------------------------------------------------------------------------------------#
  106. import numpy as np
  107. from pprint import pprint
  108. """
  109. 基于用户的协同过滤推荐(User-based CF):有了用户和用户之间两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了。
  110. """
  111. topN_users = {}
  112. # 遍历每一行数据:index获取的是 pd.DataFrame(user_similar, columns=users, index=users)中设置的index=users 行名(行索引值)
  113. for i in user_similar.index:
  114. # print(i) #User1 User2 User3 User4 User5
  115. # print("user_similar.loc[i]",user_similar.loc[i])
  116. #比如:
  117. # User1 1.000000
  118. # User2 0.500000
  119. # User3 0.666667
  120. # User4 0.200000
  121. # User5 0.400000
  122. # Name: User1, dtype: float64
  123. # 取出每一列数据,并删除自身(即删除对角线上为1的值,该值代表的是自身和自身的相似度),然后排序数据
  124. _df = user_similar.loc[i].drop([i])
  125. #sort_values 排序 按照相似度的 降序排列(ascending=False)
  126. _df_sorted = _df.sort_values(ascending=False)
  127. # 从排序之后的结果中切片 取出前两条(相似度最高的两个)
  128. top2 = list(_df_sorted.index[:2])
  129. topN_users[i] = top2
  130. # print("Top2相似用户:")
  131. # pprint(topN_users)
  132. # {'User1': ['User3', 'User2'],
  133. # 'User2': ['User4', 'User1'],
  134. # 'User3': ['User1', 'User5'],
  135. # 'User4': ['User2', 'User5'],
  136. # 'User5': ['User3', 'User4']}
  137. """
  138. 警告:utureWarning:
  139. .ix is deprecated. Please use
  140. .loc for label based indexing or
  141. .iloc for positional indexing
  142. 分析:
  143. 1.直接使用行列索引(先列后行):直接索引 -- 先列后行, 是需要通过索引的字符串进行获取
  144. 2.使用loc只能指定行列索引的名字去获取:loc -- 先行后列, 是需要通过索引的字符串进行获取
  145. 3.使用iloc可以通过索引的下标去获取:iloc -- 先行后列, 是通过下标进行索引
  146. 4.使用ix组合索引:ix -- 先行后列, 可以用上面两种方法混合进行索引
  147. -------------------------------------------------------------------------
  148. replace(to_replace=, value=)
  149. to_replace:替换前的值
  150. value:替换后的值
  151. dropna(axis='rows') 删除存在缺失值的
  152. pandas删除缺失值,使用dropna的前提是,缺失值的类型必须是np.nan
  153. 注:不会修改原数据,需要接受返回值
  154. """
  155. #Index(['Item A', 'Item C'], dtype='object')
  156. # print(df.loc['User3'].replace(0,np.nan).dropna().index)
  157. # 准备空白dict用来保存推荐结果
  158. rs_results = {}
  159. #遍历所有的最相似用户
  160. for user, sim_users in topN_users.items():
  161. rs_result = set() # 存储推荐结果
  162. for sim_user in sim_users:
  163. # 构建初始的推荐结果
  164. # rs_result = rs_result.union(set(df.ix[sim_user].replace(0,np.nan).dropna().index))
  165. rs_result = rs_result.union(set(df.loc[sim_user].replace(0,np.nan).dropna().index)) # ix[user] 和 loc[user] 均是获取User用户对应的一行Item值
  166. # print("行值",df.loc[sim_user].replace(0,np.nan).dropna().index)
  167. # # Index(['Item A', 'Item C'], dtype='object')
  168. # print("行值", df.loc[sim_user].replace(0, np.nan).dropna())
  169. # # Item A 1.0
  170. # # Item C 1.0
  171. # # Name: User3, dtype: float64
  172. # print(rs_result) #{'Item D', 'Item C', 'Item A', 'Item E'}
  173. # print(df.loc[user].replace(0,np.nan).dropna().index) #Index(['Item A', 'Item C', 'Item D'], dtype='object')
  174. # 过滤掉已经购买过的物品
  175. # rs_result -= set(df.ix[user].replace(0,np.nan).dropna().index)
  176. rs_result -= set(df.loc[user].replace(0,np.nan).dropna().index) # ix[user] 和 loc[user] 均是获取User用户对应的一行Item值
  177. # print(rs_result) #{'Item E'}
  178. rs_results[user] = rs_result
  179. # print("最终推荐结果:")
  180. # pprint(rs_results)
  181. # {'User1': {'Item E'},
  182. # 'User2': {'Item C', 'Item B'},
  183. # 'User3': {'Item D', 'Item E', 'Item B'},
  184. # 'User4': {'Item C', 'Item A'},
  185. # 'User5': {'Item D'}}
  186. #-------------------------------------------------------------------------------------------------------------#
  187. """
  188. 基于基于物品的协同过滤推荐(Item-based CF):有了物品和物品之间两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了。
  189. """
  190. topN_items = {}
  191. # 遍历每一行数据
  192. for i in item_similar.index:
  193. # print(i) #Item A Item B Item C Item D Item E
  194. # 取出每一列数据,并删除自身(即删除对角线上为1的值,该值代表的是自身和自身的相似度),然后排序数据
  195. _df = item_similar.loc[i].drop([i])
  196. # sort_values 排序 按照相似度的 降序排列(ascending=False)
  197. _df_sorted = _df.sort_values(ascending=False)
  198. # 从排序之后的结果中切片 取出前两条(相似度最高的两个)
  199. top2 = list(_df_sorted.index[:2])
  200. topN_items[i] = top2
  201. # print("Top2相似物品:")
  202. # pprint(topN_items)
  203. # {'Item A': ['Item C', 'Item E'],
  204. # 'Item B': ['Item E', 'Item D'],
  205. # 'Item C': ['Item A', 'Item B'],
  206. # 'Item D': ['Item E', 'Item A'],
  207. # 'Item E': ['Item B', 'Item D']}
  208. rs_results = {}
  209. # 构建推荐结果:index获取的是 pd.DataFrame(datasets, columns=items, index=users)
  210. for user in df.index: # 遍历所有用户
  211. # print(user) #User1 User2 User3 User4 User5
  212. rs_result = set()
  213. # 取出datasets数据集中每个用户当前已购物品列表(每个User对应的一行Item)
  214. # ix[user] 和 loc[user] 均是获取User用户对应的一行Item值
  215. # for item in df.ix[user].replace(0,np.nan).dropna().index:
  216. for item in df.loc[user].replace(0,np.nan).dropna().index:
  217. # 根据用户所购买的每个物品找出最相似的TOP-N物品,构建初始推荐结果
  218. rs_result = rs_result.union(topN_items[item])
  219. # 过滤掉用户已购的物品
  220. # 用户已购的物品:df.ix[user].replace(0,np.nan).dropna().index 获取User用户对应的一行Item值
  221. rs_result -= set(df.loc[user].replace(0,np.nan).dropna().index) #loc[user]获取User用户对应的一行Item值
  222. # 添加到结果中
  223. rs_results[user] = rs_result
  224. # print("最终推荐结果:")
  225. # pprint(rs_results)
  226. # {'User1': {'Item E', 'Item B'},
  227. # 'User2': {'Item B', 'Item C'},
  228. # 'User3': {'Item E', 'Item B'},
  229. # 'User4': {'Item A'},
  230. # 'User5': {'Item D'}}

使用协同过滤推荐算法对用户进行评分预测(预测用户对某物品的感兴趣程度):计算的是连续实数值向量之间的相关度

  1. 1.关于协同过滤推荐算法使用的数据集
  2. 1.在前面的“基于用户的协同过滤推荐、基于基于物品的协同过滤推荐”的demo中,仅是预测用户是否对某物品感兴趣,
  3. 我们只是使用用户对物品的一个购买记录,类似也可以是比如浏览点击记录、收听记录等等。
  4. 这样数据我们预测的结果其实相当于是在预测用户是否对某物品感兴趣,对于喜好程度不能很好的预测。
  5. 2.因此在协同过滤推荐算法中其实会更多的利用用户对物品的“评分”数据来进行预测喜好程度,通过评分数据集,我们可以预测用户对于他没有评分过的物品的评分。
  6. 其实现原理和思想和都是一样的,只是使用的数据集是用户-物品的评分数据。
  7. 2.关于用户-物品评分矩阵
  8. 用户-物品的评分矩阵,根据评分矩阵的稀疏程度会有不同的解决方案
  9. 1.稠密评分矩阵

		2.稀疏评分矩阵

  1. 3.使用协同过滤推荐算法对用户进行评分预测
  2. 1.数据集:

  1. 2.目的:预测用户1对物品E的评分
  2. 构建数据集:注意这里构建评分数据时,对于缺失的部分我们需要保留为None,如果设置为0那么会被当作评分值为0去对待
  3. # 目的:预测用户1对物品E的评分
  4. # 构建数据集:注意这里构建评分数据时,对于缺失的部分我们需要保留为None,如果设置为0那么会被当作评分值为0去对待
  5. users = ["User1", "User2", "User3", "User4", "User5"]
  6. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
  7. # 用户购买记录数据集
  8. datasets = [
  9. [5,3,4,4,None],
  10. [3,1,2,3,3],
  11. [4,3,4,3,5],
  12. [3,3,1,5,4],
  13. [1,5,5,2,1],
  14. ]
  15. """
  16. 相似度算法选择
  17. 1.余弦相似度/皮尔逊相关系数适合用户评分数据(实数值),不适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)
  18. 2.杰卡德相似度适用于隐式反馈数据,适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)
  19. 3.如果是分类型的连续型实数值(0/1/2/3...)则可以转换为one-hot编码,即转换为0/1布尔值向量之间的相关度计算问题,
  20. 即也可以使用杰卡德相似度来计算。
  21. """
  22. # 计算相似度:对于评分数据这里我们采用皮尔逊相关系数[-1,1]来计算,-1表示强负相关,+1表示强正相关
  23. # pandas中corr方法可直接用于计算皮尔逊相关系数
  24. import pandas as pd
  25. #index=users:users为行索引(行名)。columns=items:items为列索引(列名)
  26. df = pd.DataFrame(datasets, columns=items, index=users)
  27. """
  28. 计算皮尔逊相关系数
  29. DataFrame中的corr() 计算皮尔逊相关系数,默认是按列进行计算。
  30. 假如数据集设置的为index=users 和 columns=items,分别代表users为行索引(行名),items为列索引(列名)。
  31. 1.计算用户之间的相似度
  32. 因为index=users代表users为行索引(行名),即行索引(行名)为用户,因为corr()默认是按列进行计算的,
  33. 那么还需要把行索引(行名)转置为列索引(列名),那么才能计算用户之间的相似度。
  34. user_similar = df.T.corr() 即可 计算用户之间的相似度。
  35. 2.计算物品之间的相似度
  36. 因为columns=items代表items为列索引(列名),即列索引(列名)便为物品,那么corr()默认是按列进行计算便是计算的是物品之间的相似度。
  37. item_similar = df.corr() 即可 计算物品之间的相似度。
  38. """
  39. print("用户之间的两两相似度:")
  40. # 直接计算皮尔逊相关系数
  41. # 默认是按列进行计算,因此如果计算用户间的相似度,当前需要进行转置
  42. user_similar = df.T.corr()
  43. print(user_similar.round(4))
  44. print("物品之间的两两相似度:")
  45. item_similar = df.corr()
  46. print(item_similar.round(4))
  47. """
  48. 可以看到与用户1最相似的是用户2和用户3;与物品A最相似的物品分别是物品E和物品D。
  49. 注意:
  50. 我们在预测评分时,往往是通过与其有正相关的用户或物品进行预测,如果不存在正相关的情况,那么将无法做出预测。
  51. 这一点尤其是在稀疏评分矩阵中尤为常见,因为稀疏评分矩阵中很难得出正相关系数。
  52. """
  53. (正数表示正相关的相似度值,负数表示负相关,在此处负数为无效值不考虑使用,如果不存在正相关的情况,那么将无法做出预测)
  54. # 用户之间的两两相似度:
  55. # User1 User2 User3 User4 User5
  56. # User1 1.0000 0.8528 0.7071 0.0000 -0.7921
  57. # User2 0.8528 1.0000 0.4677 0.4900 -0.9001
  58. # User3 0.7071 0.4677 1.0000 -0.1612 -0.4666
  59. # User4 0.0000 0.4900 -0.1612 1.0000 -0.6415
  60. # User5 -0.7921 -0.9001 -0.4666 -0.6415 1.0000
  61. # 物品之间的两两相似度:
  62. # Item A Item B Item C Item D Item E
  63. # Item A 1.0000 -0.4767 -0.1231 0.5322 0.9695
  64. # Item B -0.4767 1.0000 0.6455 -0.3101 -0.4781
  65. # Item C -0.1231 0.6455 1.0000 -0.7206 -0.4276
  66. # Item D 0.5322 -0.3101 -0.7206 1.0000 0.5817
  67. # Item E 0.9695 -0.4781 -0.4276 0.5817 1.0000
  68. 3.评分预测:
  69. 1.基于用户的协同过滤推荐(User-Based CF)评分预测:使用用户间的相似度进行预测
  70. 关于评分预测的方法也有比较多的方案,下面介绍一种效果比较好的方案,
  71. 该方案考虑了用户本身的评分以及近邻用户的加权平均相似度打分来进行预测。

  1. # 用户之间的两两相似度:
  2. # User1 User2 User3 User4 User5
  3. # User1 1.0000 0.8528 0.7071 0.0000 -0.7921
  4. # User2 0.8528 1.0000 0.4677 0.4900 -0.9001
  5. # User3 0.7071 0.4677 1.0000 -0.1612 -0.4666
  6. # User4 0.0000 0.4900 -0.1612 1.0000 -0.6415
  7. # User5 -0.7921 -0.9001 -0.4666 -0.6415 1.0000
  8. 从上面的计算用户之间的相似度的结果可以看到与用户1最相似的是用户2和用户3
  9. 我们要预测用户1对物品E的评分,那么可以根据与用户1最近邻的用户2和用户3进行预测,计算如下:
  10. 与用户1最相似的是用户2和用户3的相似度分别为0.85280.7071,用户2和用户3对物品E的评分分别是35
  11. 那么最终预测出用户1对物品E的评分为3.91

  1. 2.基于基于物品的协同过滤推荐(Item-Based CF)评分预测:使用物品间的相似度进行预测
  2. 这里利用物品相似度预测的计算同上,同样考虑了用户自身的平均打分因素,结合预测物品与相似物品的加权平均相似度打分进行来进行预测。

  1. # 物品之间的两两相似度:
  2. # Item A Item B Item C Item D Item E
  3. # Item A 1.0000 -0.4767 -0.1231 0.5322 0.9695
  4. # Item B -0.4767 1.0000 0.6455 -0.3101 -0.4781
  5. # Item C -0.1231 0.6455 1.0000 -0.7206 -0.4276
  6. # Item D 0.5322 -0.3101 -0.7206 1.0000 0.5817
  7. # Item E 0.9695 -0.4781 -0.4276 0.5817 1.0000
  8. 从上面的计算物品之间的相似度的结果可以看到与物品E最相似的物品分别是物品A和物品D。
  9. 我们要预测用户1对物品E的评分,那么可以根据与物品E最近邻的物品A和物品D进行预测,计算如下:
  10. 与物品E最相似的物品A和物品D的相似度分别是0.96950.5817,那么对应用户1的物品A和物品D的评分分别是54
  11. 那么最终预测出用户1对物品E的评分为4.63

  1. 对比可见,User-Based CF预测评分和Item-Based CF的评分结果也是存在差异的,因为严格意义上他们其实应当属于两种不同的推荐算法,
  2. 各自在不同的领域不同场景下,都会比另一种的效果更佳,但具体哪一种更佳,必须经过合理的效果评估,
  3. 因此在实现推荐系统时这两种算法往往都是需要去实现的,然后对产生的推荐效果进行评估分析选出更优方案

使用协同过滤推荐算法对用户进行评分预测

  1. # 目的:预测用户1对物品E的评分
  2. # 构建数据集:注意这里构建评分数据时,对于缺失的部分我们需要保留为None,如果设置为0那么会被当作评分值为0去对待
  3. users = ["User1", "User2", "User3", "User4", "User5"]
  4. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
  5. # 用户购买记录数据集
  6. datasets = [
  7. [5,3,4,4,None],
  8. [3,1,2,3,3],
  9. [4,3,4,3,5],
  10. [3,3,1,5,4],
  11. [1,5,5,2,1],
  12. ]
  13. """
  14. 相似度算法选择
  15. 1.余弦相似度/皮尔逊相关系数适合用户评分数据(实数值),不适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)
  16. 2.杰卡德相似度适用于隐式反馈数据,适合计算0/1布尔值向量之间的相关度(是否收藏、是否点击、是否加购物车)
  17. 3.如果是分类型的连续型实数值(0/1/2/3...)则可以转换为one-hot编码(即转换为0/1布尔值向量之间的相关度计算问题,即也可以使用杰卡德相似度来计算)。
  18. """
  19. # 计算相似度:对于评分数据这里我们采用皮尔逊相关系数[-1,1]来计算,-1表示强负相关,+1表示强正相关
  20. # pandas中corr方法可直接用于计算皮尔逊相关系数
  21. import pandas as pd
  22. #index=users:users为行索引(行名)。columns=items:items为列索引(列名)
  23. df = pd.DataFrame(datasets, columns=items, index=users)
  24. """
  25. 计算皮尔逊相关系数
  26. DataFrame中的corr() 计算皮尔逊相关系数,默认是按列进行计算。
  27. 假如数据集设置的为index=users 和 columns=items,分别代表users为行索引(行名),items为列索引(列名)。
  28. 1.计算用户之间的相似度
  29. 因为index=users代表users为行索引(行名),即行索引(行名)为用户,因为corr()默认是按列进行计算的,
  30. 那么还需要把行索引(行名)转置为列索引(列名),那么才能计算用户之间的相似度。
  31. user_similar = df.T.corr() 即可 计算用户之间的相似度。
  32. 2.计算物品之间的相似度
  33. 因为columns=items代表items为列索引(列名),即列索引(列名)便为物品,那么corr()默认是按列进行计算便是计算的是物品之间的相似度。
  34. item_similar = df.corr() 即可 计算物品之间的相似度。
  35. """
  36. print("用户之间的两两相似度:")
  37. # 直接计算皮尔逊相关系数
  38. # 默认是按列进行计算,因此如果计算用户间的相似度,当前需要进行转置
  39. user_similar = df.T.corr()
  40. print(user_similar.round(4))
  41. print("物品之间的两两相似度:")
  42. item_similar = df.corr()
  43. print(item_similar.round(4))
  44. """
  45. 可以看到与用户1最相似的是用户2和用户3;与物品A最相似的物品分别是物品E和物品D。
  46. 注意:
  47. 我们在预测评分时,往往是通过与其有正相关的用户或物品进行预测,如果不存在正相关的情况,那么将无法做出预测。
  48. 这一点尤其是在稀疏评分矩阵中尤为常见,因为稀疏评分矩阵中很难得出正相关系数。
  49. """
  50. # 用户之间的两两相似度:(正数表示正相关的相似度值,负数表示负相关,在此处负数为无效值不考虑使用,如果不存在正相关的情况,那么将无法做出预测。)
  51. # User1 User2 User3 User4 User5
  52. # User1 1.0000 0.8528 0.7071 0.0000 -0.7921
  53. # User2 0.8528 1.0000 0.4677 0.4900 -0.9001
  54. # User3 0.7071 0.4677 1.0000 -0.1612 -0.4666
  55. # User4 0.0000 0.4900 -0.1612 1.0000 -0.6415
  56. # User5 -0.7921 -0.9001 -0.4666 -0.6415 1.0000
  57. # 物品之间的两两相似度:
  58. # Item A Item B Item C Item D Item E
  59. # Item A 1.0000 -0.4767 -0.1231 0.5322 0.9695
  60. # Item B -0.4767 1.0000 0.6455 -0.3101 -0.4781
  61. # Item C -0.1231 0.6455 1.0000 -0.7206 -0.4276
  62. # Item D 0.5322 -0.3101 -0.7206 1.0000 0.5817
  63. # Item E 0.9695 -0.4781 -0.4276 0.5817 1.0000

协同过滤推荐算法代码实现

  1. # 构建数据集:users为行索引(行名),items为列索引(列名)
  2. users = ["User1", "User2", "User3", "User4", "User5"]
  3. items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
  4. # 构建数据集:"buy"1,None为0
  5. # datasets = [
  6. # ["buy",None,"buy","buy",None],
  7. # ["buy",None,None,"buy","buy"],
  8. # ["buy",None,"buy",None,None],
  9. # [None,"buy",None,"buy","buy"],
  10. # ["buy","buy","buy",None,"buy"],
  11. # ]
  12. """
  13. 计算时我们数据通常都需要对数据进行处理,或者编码,目的是为了便于我们对数据进行运算处理,
  14. 比如这里是比较简单的情形,我们用1、0分别来表示用户的是否购买过该物品,则我们的数据集其实应该是这样的:
  15. Item A Item B Item C Item D Item E
  16. User1 1 0 1 1 0
  17. User2 1 0 0 1 1
  18. User3 1 0 1 0 0
  19. User4 0 1 0 1 1
  20. User5 1 1 1 0 1
  21. 注意:
  22. 1.因为一开始datasets所构建的数据集df.values为矩阵行名(行索引)为用户users,矩阵列名(列索引)为物品items 才能计算用户和用户之间的相似度,
  23. 因此基于用户的协同过滤推荐(User-based CF)计算用户和用户之间的相似度使用:pairwise_distances(df.values, metric="jaccard")。
  24. 2.datasets所构建的数据集df.values.T转置后变为矩阵行名(行索引)为物品items,矩阵列名(列索引)为用户users 才能计算物品和物品之间的相似度,
  25. 因此基于物品的协同过滤推荐(Item-based CF))计算物品和物品之间的相似度使用:pairwise_distances(df.values.T, metric="jaccard")。
  26. """
  27. # 用户购买记录数据集:"buy"1,None为0
  28. datasets = [
  29. [1,0,1,1,0],
  30. [1,0,0,1,1],
  31. [1,0,1,0,0],
  32. [0,1,0,1,1],
  33. [1,1,1,0,1],
  34. ]
  35. import pandas as pd
  36. #index=users:users为行索引(行名)。columns=items:items为列索引(列名)
  37. # df = pd.DataFrame(datasets, columns=items, index=users, dtype=bool)
  38. df = pd.DataFrame(datasets, columns=items, index=users)
  39. # print(df)
  40. # print(df.values)
  41. # [[ True False True True False]
  42. # [ True False False True True]
  43. # [ True False True False False]
  44. # [False True False True True]
  45. # [ True True True False True]]
  46. #-------------------------------------------------------------------------------------------------------------#
  47. """
  48. 有了数据集,接下来我们就可以进行相似度的计算,不过对于相似度的计算其实是有很多专门的相似度计算方法的,
  49. 比如余弦相似度、皮尔逊相关系数、杰卡德相似度等等。这里我们选择使用杰卡德相似系数计算datasets=[0,1]值。
  50. """
  51. from sklearn.metrics import jaccard_similarity_score
  52. # 直接计算某两项的杰卡德相似系数
  53. # 计算Item A 和Item B的相似度(物品之间的两两相似度):0.2
  54. # print(jaccard_similarity_score(df["Item A"], df["Item B"])) #0.2
  55. """
  56. 报错:AttributeError: 'DataFrame' object has no attribute 'dtype'
  57. 解决:pairwise_distances(df, metric="jaccard") 修改为 pairwise_distances(df.values, metric="jaccard")
  58. 警告:DataConversionWarning: Data was converted to boolean for metric jaccard。warnings.warn(msg, DataConversionWarning)
  59. 解释:DataConversionWarning:数据已转换为度量jaccard的布尔值警告.warn(消息,数据转换警告)
  60. 解决:设置dtype=bool,比如 df = pd.DataFrame(datasets, columns=items, index=users, dtype=bool)
  61. 警告:DeprecationWarning: jaccard_similarity_score has been deprecated and replaced with jaccard_score.
  62. It will be removed in version 0.23. This implementation has surprising behavior for binary and multiclass classification tasks.
  63. 'and multiclass classification tasks.', DeprecationWarning)
  64. 解释:不推荐警告:jaccard_similarity_score已被不推荐并替换为jaccard_score。它将在0.23版中删除。
  65. 此实现对于二进制和多类分类任务和多类分类任务具有令人惊讶的行为。DeprecationWarning)
  66. 分析:jaccard_similarity_score方法已经过时
  67. """
  68. # 计算所有的数据两两的杰卡德相似系数
  69. from sklearn.metrics.pairwise import pairwise_distances
  70. """
  71. 1.“跟你喜好相似的人喜欢的东西你也很有可能喜欢”:基于用户的协同过滤推荐(User-based CF)。
  72. 基于用户的稀疏矩阵:矩阵行名为users,矩阵列名为items。
  73. 2.因为一开始datasets所构建的数据集df.values为矩阵行名(行索引)为用户users,矩阵列名(列索引)为物品items 才能计算用户和用户之间的相似度,
  74. 因此基于用户的协同过滤推荐(User-based CF)计算用户和用户之间的相似度使用:pairwise_distances(df.values, metric="jaccard")。
  75. """
  76. # 计算用户间相似度:metric="jaccard" 使用杰卡德相似系数
  77. user_similar = 1 - pairwise_distances(df.values, metric="jaccard")
  78. #DataFrame构建显示数据
  79. user_similar = pd.DataFrame(user_similar, columns=users, index=users)
  80. # print("用户之间的两两相似度:")
  81. # print(user_similar)
  82. # User1 User2 User3 User4 User5
  83. # User1 1.000000 0.50 0.666667 0.2 0.4
  84. # User2 0.500000 1.00 0.250000 0.5 0.4
  85. # User3 0.666667 0.25 1.000000 0.0 0.5
  86. # User4 0.200000 0.50 0.000000 1.0 0.4
  87. # User5 0.400000 0.40 0.500000 0.4 1.0
  88. """
  89. 1.“跟你喜欢的东西相似的东西你也很有可能喜欢 ”:基于物品的协同过滤推荐(Item-based CF)。
  90. 基于内容(物品)的稀疏矩阵:矩阵行名为items,矩阵列名为users。
  91. 2.datasets所构建的数据集df.values.T转置后变为矩阵行名(行索引)为物品items,矩阵列名(列索引)为用户users 才能计算物品和物品之间的相似度,
  92. 因此基于物品的协同过滤推荐(Item-based CF))计算物品和物品之间的相似度使用:pairwise_distances(df.values.T, metric="jaccard")。
  93. """
  94. # 计算物品间相似度
  95. item_similar = 1 - pairwise_distances(df.values.T, metric="jaccard")
  96. item_similar = pd.DataFrame(item_similar, columns=items, index=items)
  97. # print("物品之间的两两相似度:")
  98. # print(item_similar)
  99. # Item A Item B Item C Item D Item E
  100. # Item A 1.00 0.200000 0.75 0.40 0.400000
  101. # Item B 0.20 1.000000 0.25 0.25 0.666667
  102. # Item C 0.75 0.250000 1.00 0.20 0.200000
  103. # Item D 0.40 0.250000 0.20 1.00 0.500000
  104. # Item E 0.40 0.666667 0.20 0.50 1.000000
  105. #-------------------------------------------------------------------------------------------------------------#
  106. import numpy as np
  107. from pprint import pprint
  108. """
  109. 基于用户的协同过滤推荐(User-based CF):有了用户和用户之间两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了。
  110. """
  111. topN_users = {}
  112. # 遍历每一行数据:index获取的是 pd.DataFrame(user_similar, columns=users, index=users)中设置的index=users 行名(行索引值)
  113. for i in user_similar.index:
  114. # print(i) #User1 User2 User3 User4 User5
  115. # print("user_similar.loc[i]",user_similar.loc[i])
  116. #比如:
  117. # User1 1.000000
  118. # User2 0.500000
  119. # User3 0.666667
  120. # User4 0.200000
  121. # User5 0.400000
  122. # Name: User1, dtype: float64
  123. # 取出每一列数据,并删除自身(即删除对角线上为1的值,该值代表的是自身和自身的相似度),然后排序数据
  124. _df = user_similar.loc[i].drop([i])
  125. #sort_values 排序 按照相似度的 降序排列(ascending=False)
  126. _df_sorted = _df.sort_values(ascending=False)
  127. # 从排序之后的结果中切片 取出前两条(相似度最高的两个)
  128. top2 = list(_df_sorted.index[:2])
  129. topN_users[i] = top2
  130. # print("Top2相似用户:")
  131. # pprint(topN_users)
  132. # {'User1': ['User3', 'User2'],
  133. # 'User2': ['User4', 'User1'],
  134. # 'User3': ['User1', 'User5'],
  135. # 'User4': ['User2', 'User5'],
  136. # 'User5': ['User3', 'User4']}
  137. """
  138. 警告:utureWarning:
  139. .ix is deprecated. Please use
  140. .loc for label based indexing or
  141. .iloc for positional indexing
  142. 分析:
  143. 1.直接使用行列索引(先列后行):直接索引 -- 先列后行, 是需要通过索引的字符串进行获取
  144. 2.使用loc只能指定行列索引的名字去获取:loc -- 先行后列, 是需要通过索引的字符串进行获取
  145. 3.使用iloc可以通过索引的下标去获取:iloc -- 先行后列, 是通过下标进行索引
  146. 4.使用ix组合索引:ix -- 先行后列, 可以用上面两种方法混合进行索引
  147. -------------------------------------------------------------------------
  148. replace(to_replace=, value=)
  149. to_replace:替换前的值
  150. value:替换后的值
  151. dropna(axis='rows') 删除存在缺失值的
  152. pandas删除缺失值,使用dropna的前提是,缺失值的类型必须是np.nan
  153. 注:不会修改原数据,需要接受返回值
  154. """
  155. #Index(['Item A', 'Item C'], dtype='object')
  156. # print(df.loc['User3'].replace(0,np.nan).dropna().index)
  157. # 准备空白dict用来保存推荐结果
  158. rs_results = {}
  159. #遍历所有的最相似用户
  160. for user, sim_users in topN_users.items():
  161. rs_result = set() # 存储推荐结果
  162. for sim_user in sim_users:
  163. # 构建初始的推荐结果
  164. # rs_result = rs_result.union(set(df.ix[sim_user].replace(0,np.nan).dropna().index))
  165. rs_result = rs_result.union(set(df.loc[sim_user].replace(0,np.nan).dropna().index)) # ix[user] 和 loc[user] 均是获取User用户对应的一行Item值
  166. # print("行值",df.loc[sim_user].replace(0,np.nan).dropna().index)
  167. # # Index(['Item A', 'Item C'], dtype='object')
  168. # print("行值", df.loc[sim_user].replace(0, np.nan).dropna())
  169. # # Item A 1.0
  170. # # Item C 1.0
  171. # # Name: User3, dtype: float64
  172. # print(rs_result) #{'Item D', 'Item C', 'Item A', 'Item E'}
  173. # print(df.loc[user].replace(0,np.nan).dropna().index) #Index(['Item A', 'Item C', 'Item D'], dtype='object')
  174. # 过滤掉已经购买过的物品
  175. # rs_result -= set(df.ix[user].replace(0,np.nan).dropna().index)
  176. rs_result -= set(df.loc[user].replace(0,np.nan).dropna().index) # ix[user] 和 loc[user] 均是获取User用户对应的一行Item值
  177. # print(rs_result) #{'Item E'}
  178. rs_results[user] = rs_result
  179. # print("最终推荐结果:")
  180. # pprint(rs_results)
  181. # {'User1': {'Item E'},
  182. # 'User2': {'Item C', 'Item B'},
  183. # 'User3': {'Item D', 'Item E', 'Item B'},
  184. # 'User4': {'Item C', 'Item A'},
  185. # 'User5': {'Item D'}}
  186. #-------------------------------------------------------------------------------------------------------------#
  187. """
  188. 基于基于物品的协同过滤推荐(Item-based CF):有了物品和物品之间两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了。
  189. """
  190. topN_items = {}
  191. # 遍历每一行数据
  192. for i in item_similar.index:
  193. # print(i) #Item A Item B Item C Item D Item E
  194. # 取出每一列数据,并删除自身(即删除对角线上为1的值,该值代表的是自身和自身的相似度),然后排序数据
  195. _df = item_similar.loc[i].drop([i])
  196. # sort_values 排序 按照相似度的 降序排列(ascending=False)
  197. _df_sorted = _df.sort_values(ascending=False)
  198. # 从排序之后的结果中切片 取出前两条(相似度最高的两个)
  199. top2 = list(_df_sorted.index[:2])
  200. topN_items[i] = top2
  201. # print("Top2相似物品:")
  202. # pprint(topN_items)
  203. # {'Item A': ['Item C', 'Item E'],
  204. # 'Item B': ['Item E', 'Item D'],
  205. # 'Item C': ['Item A', 'Item B'],
  206. # 'Item D': ['Item E', 'Item A'],
  207. # 'Item E': ['Item B', 'Item D']}
  208. rs_results = {}
  209. # 构建推荐结果:index获取的是 pd.DataFrame(datasets, columns=items, index=users)
  210. for user in df.index: # 遍历所有用户
  211. # print(user) #User1 User2 User3 User4 User5
  212. rs_result = set()
  213. # 取出datasets数据集中每个用户当前已购物品列表(每个User对应的一行Item)
  214. # ix[user] 和 loc[user] 均是获取User用户对应的一行Item值
  215. # for item in df.ix[user].replace(0,np.nan).dropna().index:
  216. for item in df.loc[user].replace(0,np.nan).dropna().index:
  217. # 根据用户所购买的每个物品找出最相似的TOP-N物品,构建初始推荐结果
  218. rs_result = rs_result.union(topN_items[item])
  219. # 过滤掉用户已购的物品
  220. # 用户已购的物品:df.ix[user].replace(0,np.nan).dropna().index 获取User用户对应的一行Item值
  221. rs_result -= set(df.loc[user].replace(0,np.nan).dropna().index) #loc[user]获取User用户对应的一行Item值
  222. # 添加到结果中
  223. rs_results[user] = rs_result
  224. # print("最终推荐结果:")
  225. # pprint(rs_results)
  226. # {'User1': {'Item E', 'Item B'},
  227. # 'User2': {'Item B', 'Item C'},
  228. # 'User3': {'Item E', 'Item B'},
  229. # 'User4': {'Item A'},
  230. # 'User5': {'Item D'}}

In [1]:

import pandas as pd

In [2]:

users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
    [1,0,1,1,0],
    [1,0,0,1,1],
    [1,0,1,0,0],
    [0,1,0,1,1],
    [1,1,1,0,1],
]

In [3]:

df = pd.DataFrame(data=datasets,index=users,columns=items)

In [4]:

df

Out[4]:

Item AItem BItem CItem DItem E
User110110
User210011
User310100
User401011
User511101

In [5]:

from sklearn.metrics import jaccard_similarity_score

In [6]:

jaccard_similarity_score(df["Item A"],df["Item B"])

Out[6]:

0.2

In [7]:

from sklearn.metrics.pairwise import pairwise_distances

In [8]:

user_similar = 1-pairwise_distances(df,metric="jaccard")
  1. C:\ProgramData\Anaconda3\lib\site-packages\sklearn\utils\validation.py:475: DataConversionWarning: Data with input dtype int64 was converted to bool by check_pairwise_arrays.
  2. warnings.warn(msg, DataConversionWarning)

In [9]:

user_similar

Out[9]:

  1. array([[1. , 0.5 , 0.66666667, 0.2 , 0.4 ],
  2. [0.5 , 1. , 0.25 , 0.5 , 0.4 ],
  3. [0.66666667, 0.25 , 1. , 0. , 0.5 ],
  4. [0.2 , 0.5 , 0. , 1. , 0.4 ],
  5. [0.4 , 0.4 , 0.5 , 0.4 , 1. ]])

In [10]:

user_similar = pd.DataFrame(user_similar, columns=users, index=users)

In [11]:

user_similar

Out[11]:

User1User2User3User4User5
User11.0000000.500.6666670.20.4
User20.5000001.000.2500000.50.4
User30.6666670.251.0000000.00.5
User40.2000000.500.0000001.00.4
User50.4000000.400.5000000.41.0

In [13]:

# 计算物品间相似度
item_similar = 1 - pairwise_distances(df.T, metric="jaccard")
item_similar = pd.DataFrame(item_similar, columns=items, index=items)
print("物品之间的两两相似度:")
print(item_similar)
  1. 物品之间的两两相似度:
  2. Item A Item B Item C Item D Item E
  3. Item A 1.00 0.200000 0.75 0.40 0.400000
  4. Item B 0.20 1.000000 0.25 0.25 0.666667
  5. Item C 0.75 0.250000 1.00 0.20 0.200000
  6. Item D 0.40 0.250000 0.20 1.00 0.500000
  7. Item E 0.40 0.666667 0.20 0.50 1.000000
  1. C:\ProgramData\Anaconda3\lib\site-packages\sklearn\utils\validation.py:475: DataConversionWarning: Data with input dtype int64 was converted to bool by check_pairwise_arrays.
  2. warnings.warn(msg, DataConversionWarning)

In [14]:

#定义一个字典,用于盛放用户的topN个相似用户(这里是2)
topN_users={}

In [28]:

for i in user_similar.index:
    #删除对角线上的自己与自己的相似度1
    _df = user_similar.loc[i].drop([i])
    _df_sorted = _df.sort_values(ascending=False)
    #print(_df_sorted.values)
    #top2 = list(_df_sorted)[:2]
    top2=list(_df_sorted.index[:2])
    print(top2)
    topN_users[i]=top2
  1. ['User3', 'User2']
  2. ['User4', 'User1']
  3. ['User1', 'User5']
  4. ['User2', 'User5']
  5. ['User3', 'User4']

In [17]:

user_similar

Out[17]:

User1User2User3User4User5
User11.0000000.500.6666670.20.4
User20.5000001.000.2500000.50.4
User30.6666670.251.0000000.00.5
User40.2000000.500.0000001.00.4
User50.4000000.400.5000000.41.0

In [29]:

topN_users

Out[29]:

  1. {'User1': ['User3', 'User2'],
  2. 'User2': ['User4', 'User1'],
  3. 'User3': ['User1', 'User5'],
  4. 'User4': ['User2', 'User5'],
  5. 'User5': ['User3', 'User4']}

In [33]:

import numpy as np

In [37]:

list(df.ix['User3'].replace(0,np.nan).dropna().index)

Out[37]:

['Item A', 'Item C']

In [32]:

df

Out[32]:

Item AItem BItem CItem DItem E
User110110
User210011
User310100
User401011
User511101

In [38]:

rs_results={}

In [39]:

for user,sim_users in topN_users.items():
    rs_result=set()
    for sim_user in sim_users:
        rs_result = rs_result.union(set(df.loc[sim_user].replace(0,np.nan).dropna().index))
 
    rs_result -= set(df.loc[user].replace(0,np.nan).dropna().index)
    rs_results[user]=rs_result

In [40]:

rs_results

Out[40]:

  1. {'User1': {'Item E'},
  2. 'User2': {'Item B', 'Item C'},
  3. 'User3': {'Item B', 'Item D', 'Item E'},
  4. 'User4': {'Item A', 'Item C'},
  5. 'User5': {'Item D'}}

In [41]:

import pandas as pd
import numpy as np
from pprint import pprint
users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
    [1,0,1,1,0],
    [1,0,0,1,1],
    [1,0,1,0,0],
    [0,1,0,1,1],
    [1,1,1,0,1],
]
df = pd.DataFrame(datasets,
                  columns=items,
                  index=users)

In [42]:

#计算物品的两两相似度

In [43]:

#直接计算出两两的jaccard相似度
item_similar = 1-pairwise_distances(df.T,metric='jaccard')
print(item_similar)
  1. [[1. 0.2 0.75 0.4 0.4 ]
  2. [0.2 1. 0.25 0.25 0.66666667]
  3. [0.75 0.25 1. 0.2 0.2 ]
  4. [0.4 0.25 0.2 1. 0.5 ]
  5. [0.4 0.66666667 0.2 0.5 1. ]]
  1. C:\ProgramData\Anaconda3\lib\site-packages\sklearn\utils\validation.py:475: DataConversionWarning: Data with input dtype int64 was converted to bool by check_pairwise_arrays.
  2. warnings.warn(msg, DataConversionWarning)

In [47]:

item_similar = pd.DataFrame(item_similar,index=items,columns=items)

In [48]:

item_similar

Out[48]:

Item AItem BItem CItem DItem E
Item A1.000.2000000.750.400.400000
Item B0.201.0000000.250.250.666667
Item C0.750.2500001.000.200.200000
Item D0.400.2500000.201.000.500000
Item E0.400.6666670.200.501.000000

In [46]:

items

Out[46]:

['Item A', 'Item B', 'Item C', 'Item D', 'Item E']

In [44]:

#目标:找到物品的topN个相似物品

In [45]:

topN_items={}

In [54]:

for i in item_similar.index:
    _df = item_similar.loc[i].drop([i])
    _df_sorted = _df.sort_values(ascending=False)
    top2 = list(_df_sorted.index[:2])
    topN_items[i]=top2

In [55]:

topN_items

Out[55]:

  1. {'Item A': ['Item C', 'Item E'],
  2. 'Item B': ['Item E', 'Item D'],
  3. 'Item C': ['Item A', 'Item B'],
  4. 'Item D': ['Item E', 'Item A'],
  5. 'Item E': ['Item B', 'Item D']}

In [56]:

#获取需要推荐给用户的物品

In [57]:

#定义一个字典,用于盛放所有的推荐结果
rs_results={}

In [62]:

for user in df.index:
    #定义一个针对于单个用户的推荐结果的集合
    rs_result=set()
    #将遍历的每个用户的已经买过的物品取出
    for item in df.loc[user].replace(0,np.nan).dropna().index:
        rs_result = rs_result.union(topN_items[item])
 
    #过滤用户已经购买过的物品
    rs_result -= set(df.loc[user].replace(0,np.nan).dropna().index)
 
    #将每次遍历得到的推荐结果放入总的推荐结果中
    rs_results[user]=rs_result

In [63]:

rs_results

Out[63]:

  1. {'User1': {'Item B', 'Item E'},
  2. 'User2': {'Item B', 'Item C'},
  3. 'User3': {'Item B', 'Item E'},
  4. 'User4': {'Item A'},
  5. 'User5': {'Item D'}}

In [64]:

users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
    [5,3,4,4,None],
    [3,1,2,3,3],
    [4,3,4,3,5],
    [3,3,1,5,4],
    [1,5,5,2,1],
]

In [65]:

df = pd.DataFrame(datasets,
                  columns=items,
                  index=users)

In [66]:

df

Out[66]:

Item AItem BItem CItem DItem E
User15344NaN
User231233.0
User343435.0
User433154.0
User515521.0

In [67]:

print("用户之间的两两相似度:")
用户之间的两两相似度:

In [68]:

df.T.corr()

Out[68]:

User1User2User3User4User5
User11.0000000.8528030.7071070.000000-0.792118
User20.8528031.0000000.4677070.489956-0.900149
User30.7071070.4677071.000000-0.161165-0.466569
User40.0000000.489956-0.1611651.000000-0.641503
User5-0.792118-0.900149-0.466569-0.6415031.000000

In [69]:

df.corr()

Out[69]:

Item AItem BItem CItem DItem E
Item A1.000000-0.476731-0.1230910.5321810.969458
Item B-0.4767311.0000000.645497-0.310087-0.478091
Item C-0.1230910.6454971.000000-0.720577-0.427618
Item D0.532181-0.310087-0.7205771.0000000.581675
Item E0.969458-0.478091-0.4276180.5816751.000000

In [1]:

import os
import pandas as pd
import numpy as np

In [5]:

DATA_PATH = "./ratings.csv"

In [6]:

dtype={"userId":np.int32,"movieId": np.int32, "rating": np.float32}

In [7]:

#useCols:读取一个文件,需要的列索引值
ratings = pd.read_csv(DATA_PATH,dtype=dtype,usecols=range(3))

In [8]:

#构建透视表:行索引为userId,列索引为movieId,值为rating

In [10]:

ratings_matrix = ratings.pivot_table(index=["userId"],columns=["movieId"],values="rating")

In [11]:

#计算相似度
user_similar = ratings_matrix.T.corr()

In [12]:

user_similar

Out[12]:

userId12345678910...601602603604605606607608609610
userId
11.000000NaN0.0798190.2079830.268749-2.916358e-01-0.1187730.4696680.918559-0.037987...0.0915740.000000-0.061503-0.407556-0.1648716.637849e-020.1745570.268070-0.175412-0.032086
2NaN1.000000NaNNaNNaNNaN-0.991241NaNNaN0.037796...-0.387347NaN-1.000000NaNNaN5.833333e-01NaN-0.125000NaN0.623288
30.079819NaN1.000000NaNNaNNaNNaNNaNNaNNaN...NaNNaN0.433200NaNNaN-7.913343e-01-0.333333-0.395092NaN0.569562
40.207983NaNNaN1.000000-0.3365251.484982e-010.5428610.117851NaN0.485794...-0.2221130.3966410.090090-0.0802960.4001241.446033e-010.116518-0.170501-0.277350-0.043786
50.268749NaNNaN-0.3365251.0000004.316590e-020.1581140.028347NaN-0.777714...0.0000000.1533030.2347430.067791-0.3641562.443212e-010.231080-0.0205460.3841110.040582
6-0.291636NaNNaN0.1484980.0431661.000000e+00-0.126595-0.200062NaN0.957427...-0.292770-0.027495-0.112141-0.0902970.100735-4.919190e-020.2556390.1254280.1936490.115580
7-0.118773-0.991241NaN0.5428610.158114-1.265950e-011.0000000.2204160.925000-0.156764...-0.2804960.1104320.3436490.5609680.4161861.377715e-010.4027920.0080810.4202880.341233
80.469668NaNNaN0.1178510.028347-2.000621e-010.2204161.000000NaN-1.000000...1.0000000.1909020.2492520.534375-0.2174052.535821e-010.2512800.4344230.1418600.167931
90.918559NaNNaNNaNNaNNaN0.925000NaN1.000000NaN...0.577350NaN0.376715NaN0.1587775.726999e-01NaN0.336625NaN0.615638
10-0.0379870.037796NaN0.485794-0.7777149.574271e-01-0.156764-1.000000NaN1.000000...-0.397276-0.944911-0.424631-1.0000000.268684-3.829551e-01-0.241121-0.571043NaN-0.205081
11-0.087643NaNNaN0.5647370.2682934.832447e-01-0.0273490.253576NaNNaN...-0.3015110.274963-0.176996-0.015131-0.0191046.213867e-010.4340140.3359760.1517440.137054
12NaNNaNNaN-0.3440311.0000000.000000e+000.000000-1.000000NaN0.562500...NaN1.000000-0.248679-0.5070930.5000008.956222e-02-0.365148-0.322817NaN-0.672977
130.878310NaNNaN-0.558242NaNNaN-0.5000001.000000NaN-0.381246...0.3750001.0000000.674020NaNNaN7.755102e-020.1889820.493318NaN0.796969
140.229081NaNNaN-0.139347-0.1533232.766621e-010.8068720.123460NaN0.500000...-1.0000000.0173140.1880610.507168-0.1516203.468145e-010.2236690.238901-0.0776150.140482
150.232636-0.330174-0.9449110.481605-0.2523521.163945e-02-0.155384-0.139122-0.482805-0.030515...0.0984460.665169-0.0470940.5346340.1244428.667785e-02-0.0848140.3443040.458333-0.099907
160.191851-0.176471NaN-0.137553-0.684653-1.837726e-02-0.0962330.665133NaN0.583639...-0.1571740.0862120.157807-0.7543370.012649-4.867394e-020.055125-0.302915NaN-0.134150
170.0379010.000000NaN-0.2189280.3108352.400077e-020.2878030.000000NaN-0.005896...0.1925480.3238750.1749550.528594-0.1478211.226658e-01-0.1891180.3008210.638915-0.034653
180.205371-0.264646-0.354548-0.0076410.1629959.380339e-030.2060820.0299530.252714-0.082679...0.2648010.4235780.3896370.2038060.1038345.216392e-010.1691450.3757500.4000000.327397
190.325180NaN-0.4424980.0720000.2718272.591888e-010.1946490.1398820.976296-0.561617...0.5619620.2461540.1602880.0938630.2565562.542703e-010.0035670.229268-0.0685190.399213
200.419641NaNNaN0.6207580.0400322.133011e-010.4510350.7470180.5612490.122967...-0.3380620.3934450.244265-0.6108020.0858194.328764e-010.3199640.030331NaN0.413368
210.107119-0.020535-0.991241-0.059131-0.3394223.057183e-010.0243630.084020-0.3865920.269043...-0.1508590.147429-0.4851820.265872-0.008274-1.638329e-01-0.2378230.0280650.623250-0.063044
22-0.463039-0.619292NaN0.259412NaN8.964215e-010.053010-0.500000NaN-0.035275...-0.1133980.5000000.424252NaN-0.3217192.230021e-020.141421-0.106111NaN0.208517
23-0.364372NaNNaN-0.2294800.000000-4.050463e-010.1757810.324443NaN-0.218218...0.261839-0.0909090.023665-0.1909410.5000002.367592e-010.024012-0.0291241.000000-0.074424
240.249046-0.641689NaN0.1518000.1936497.775791e-02-0.0573510.1666671.000000-0.049613...0.4482970.1280460.207174-0.099340-0.2291701.857959e-010.1951800.176818NaN0.121548
25-0.1666670.108465NaNNaNNaNNaNNaN1.000000NaNNaN...0.2849011.000000NaNNaNNaN7.287987e-01NaN0.693375NaN0.371303
260.141421NaNNaNNaN0.586739-1.036641e-17-0.0995040.094655NaN-1.000000...NaN0.5662660.4082480.448943-0.6250009.128709e-020.2249340.4938810.3360110.701646
270.189437NaNNaN0.1011430.0000004.821188e-01-0.117892-0.1084651.0000000.654654...0.198030-0.255678-0.3181640.1147080.194420-4.161383e-020.0580420.0187180.707107-0.199442
28-0.014257-0.1666670.2041400.1250130.201241-1.383784e-010.0000680.056400-0.057640-0.051243...0.1222480.1045560.0409000.0313790.0640347.209501e-02-0.1230550.2022520.3370800.176014
29-0.070495-0.310087NaN0.455842-0.6813857.145774e-01-0.428521-0.298807NaN0.568982...0.1323530.0308020.5600540.4264010.368782-5.475182e-170.3722220.0323400.1740780.048994
30-0.142857NaNNaNNaN0.5000001.000000e+000.105577NaNNaNNaN...NaNNaN-0.303770NaN0.4034734.536438e-01-0.3122550.4029530.500000-0.251636
..................................................................
5810.000000-0.790569NaN0.688499NaN-5.000000e-010.0690771.000000NaN0.324953...0.2238361.000000-0.311400NaN-0.297936-4.707512e-030.069843-0.247073NaN-0.107907
5820.2500000.044194NaN-0.613941NaNNaN-0.325818NaNNaN0.135653...0.093532NaN0.400000NaN-0.027639-1.935282e-020.5773500.438529NaN0.415336
583-0.037878NaNNaN-0.793045-0.612372-1.477635e-01-0.300123-0.663403NaN-0.380072...0.583333-0.0808450.249950-0.3919650.3105302.557321e-01-1.000000-0.048508NaN-0.099776
584-0.076086NaNNaN-0.1272940.2576294.749685e-010.1322600.078422NaN0.514259...NaN0.154225-0.1056950.0788510.116250-1.458650e-010.709014-0.104141-0.0329780.521057
5850.0557030.000000NaN0.058537NaN5.000000e-01-0.174078NaN1.000000-0.894675...-0.5000000.250000-0.1039751.000000-1.0000001.836735e-010.5773500.001186NaN0.059085
5860.163573-0.197203NaN-0.170842-0.4236592.995523e-010.036261-0.1985390.1428570.101297...0.1129450.224965-0.343401-0.2867700.376335-6.999917e-02-0.3432660.1027850.3425940.038017
587-0.302195NaN-0.500000-0.2596930.7043613.380148e-02-0.2530460.094555-0.277350-0.126745...0.1942570.302627-0.0798920.7248820.0665671.583314e-01-0.1259830.2125760.1666670.396926
588-0.028161-1.000000NaN0.3572170.3140987.215966e-020.4741010.084579NaN-1.000000...0.8703880.476251-0.0190800.102512-0.4989225.858504e-010.6425690.5319980.3737370.198529
589-0.388075NaNNaN-0.0523420.4842484.108614e-01-0.1336310.116775NaNNaN...NaN0.3172580.1647170.520855-0.8682433.984854e-01-0.2901290.3705550.885438-0.154303
5900.3111820.000000-0.4717280.3883340.4029671.119786e-010.4496150.3235690.4869430.110148...0.3318410.4981850.3373660.3177660.3009185.564658e-010.1527900.2316660.2806920.522279
5910.280875NaNNaN-0.024876NaN9.449112e-010.038029NaNNaN0.399381...-0.4685210.188982-0.044991NaN0.687500-8.918451e-020.0461760.133974NaN0.059337
592-0.096225-1.000000NaN0.054554-0.1041033.039877e-010.1405630.114093NaN0.257130...NaN0.225521-0.076214-0.0043000.0431291.934440e-010.4135370.1548200.0378600.257958
5930.492483-0.576557NaN0.2392700.327896-1.125112e-010.2304810.2625380.6396020.144380...-0.0064890.3988060.2598790.7872340.2101144.502224e-01-0.2986750.2024900.7268160.271216
5940.198460NaNNaN-0.0823050.1455992.379293e-010.311258-0.450281NaN0.011086...0.2598280.098512-0.233680-0.270617-0.153040-1.051694e-01-0.115238-0.180774-0.650000-0.043506
5950.509525NaNNaN0.110432NaN-8.164966e-010.471405NaNNaNNaN...NaN0.0000000.570406NaNNaN1.544249e-01NaN0.745356NaN0.894427
5960.5632260.4940770.607764-0.0659380.4063823.363921e-010.5396080.6808770.367607-0.200189...0.1876720.0569800.3759500.3194380.3254843.417831e-010.1845480.2267360.1414210.477917
5970.427029NaN-0.3521300.2021000.519907-8.959725e-020.0883910.1762000.572078-0.592220...0.4759230.2541530.333188-0.1239880.3145113.796592e-010.1541890.1825820.2472070.342623
5981.000000NaNNaN0.277350NaNNaN0.042796NaNNaN-1.000000...-0.225845NaN-0.970725NaN-0.295540-2.054782e-01NaN-0.320427NaN-0.024915
5990.219768-0.0160210.1977310.0806060.3980806.142150e-020.2512250.2913010.394710-0.413272...0.1903020.2866600.2680200.0316860.2554953.681679e-01-0.0290930.3467330.3291460.510982
6000.2536490.1889820.1042570.1287220.1788201.527447e-010.3453270.0166680.506024-0.106625...0.4467030.2466100.1376510.2624750.1435552.836092e-01-0.2265310.1078110.7149200.325230
6010.091574-0.387347NaN-0.2221130.000000-2.927700e-01-0.2804961.0000000.577350-0.397276...1.000000NaN0.182719NaN0.4121622.904896e-010.6982410.4739671.0000000.007025
6020.000000NaNNaN0.3966410.153303-2.749519e-020.1104320.190902NaN-0.944911...NaN1.000000-0.0898460.2312900.1135151.406134e-010.2172100.2976460.1885120.049263
603-0.061503-1.0000000.4332000.0900900.234743-1.121408e-010.3436490.2492520.376715-0.424631...0.182719-0.0898461.0000000.212682-0.1059753.184733e-010.1927870.0864230.3433030.270908
604-0.407556NaNNaN-0.0802960.067791-9.029693e-020.5609680.534375NaN-1.000000...NaN0.2312900.2126821.000000-0.3659596.829493e-010.0358060.0539860.6416240.310611
605-0.164871NaNNaN0.400124-0.3641561.007346e-010.416186-0.2174050.1587770.268684...0.4121620.113515-0.105975-0.3659591.0000001.670620e-01-0.299641-0.075673-0.5500000.462274
6060.0663780.583333-0.7913340.1446030.244321-4.919190e-020.1377710.2535820.572700-0.382955...0.2904900.1406130.3184730.6829490.1670621.000000e+000.1141910.2408420.5330020.389185
6070.174557NaN-0.3333330.1165180.2310802.556391e-010.4027920.251280NaN-0.241121...0.6982410.2172100.1927870.035806-0.2996411.141912e-011.0000000.2008140.1901170.106605
6080.268070-0.125000-0.395092-0.170501-0.0205461.254283e-010.0080810.4344230.336625-0.571043...0.4739670.2976460.0864230.053986-0.0756732.408422e-010.2008141.0000000.4889290.147606
609-0.175412NaNNaN-0.2773500.3841111.936492e-010.4202880.141860NaNNaN...1.0000000.1885120.3433030.641624-0.5500005.330018e-010.1901170.4889291.000000-0.521773
610-0.0320860.6232880.569562-0.0437860.0405821.155802e-010.3412330.1679310.615638-0.205081...0.0070250.0492630.2709080.3106110.4622743.891852e-010.1066050.147606-0.5217731.000000

610 rows × 610 columns

In [13]:

# 1. 找出uid用户的相似用户
similar_users = user_similar[1].drop([1]).dropna()
# 相似用户筛选规则:正相关的用户
similar_users = similar_users.where(similar_users>0).dropna()

In [16]:

similar_users

Out[16]:

  1. userId
  2. 3 0.079819
  3. 4 0.207983
  4. 5 0.268749
  5. 8 0.469668
  6. 9 0.918559
  7. 13 0.878310
  8. 14 0.229081
  9. 15 0.232636
  10. 16 0.191851
  11. 17 0.037901
  12. 18 0.205371
  13. 19 0.325180
  14. 20 0.419641
  15. 21 0.107119
  16. 24 0.249046
  17. 26 0.141421
  18. 27 0.189437
  19. 31 0.033366
  20. 32 0.277017
  21. 33 0.088523
  22. 34 0.032356
  23. 35 0.297044
  24. 36 0.432426
  25. 38 0.246085
  26. 42 0.140809
  27. 43 0.111291
  28. 44 0.684448
  29. 45 0.267402
  30. 46 0.083333
  31. 47 0.502977
  32. ...
  33. 558 0.123876
  34. 560 0.086872
  35. 561 0.205417
  36. 562 0.022797
  37. 567 0.004302
  38. 568 0.144338
  39. 570 0.148609
  40. 572 0.319158
  41. 573 0.054390
  42. 574 0.643796
  43. 575 0.422577
  44. 577 0.311132
  45. 580 0.116808
  46. 582 0.250000
  47. 585 0.055703
  48. 586 0.163573
  49. 590 0.311182
  50. 591 0.280875
  51. 593 0.492483
  52. 594 0.198460
  53. 595 0.509525
  54. 596 0.563226
  55. 597 0.427029
  56. 598 1.000000
  57. 599 0.219768
  58. 600 0.253649
  59. 601 0.091574
  60. 606 0.066378
  61. 607 0.174557
  62. 608 0.268070
  63. Name: 1, Length: 377, dtype: float64

In [17]:

ratings_matrix[1].dropna().index

Out[17]:

  1. Int64Index([ 1, 5, 7, 15, 17, 18, 19, 21, 27, 31,
  2. ...
  3. 600, 601, 603, 604, 605, 606, 607, 608, 609, 610],
  4. dtype='int64', name='userId', length=215)

In [23]:

ratings_matrix[1].index

Out[23]:

  1. Int64Index([ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10,
  2. ...
  3. 601, 602, 603, 604, 605, 606, 607, 608, 609, 610],
  4. dtype='int64', name='userId', length=610)

In [26]:

# 2. 从用户1的近邻相似用户中筛选出对物品1有评分记录的近邻用户
ids = set(ratings_matrix[1].dropna().index)&set(similar_users.index)

In [27]:

ids

Out[27]:

  1. {5,
  2. 15,
  3. 17,
  4. 18,
  5. 19,
  6. 21,
  7. 27,
  8. 31,
  9. 32,
  10. 33,
  11. 43,
  12. 44,
  13. 45,
  14. 46,
  15. 57,
  16. 63,
  17. 64,
  18. 66,
  19. 68,
  20. 76,
  21. 78,
  22. 82,
  23. 86,
  24. 89,
  25. 90,
  26. 91,
  27. 93,
  28. 96,
  29. 103,
  30. 107,
  31. 112,
  32. 119,
  33. 124,
  34. 130,
  35. 132,
  36. 135,
  37. 137,
  38. 140,
  39. 141,
  40. 144,
  41. 145,
  42. 151,
  43. 153,
  44. 155,
  45. 156,
  46. 159,
  47. 160,
  48. 166,
  49. 167,
  50. 169,
  51. 171,
  52. 177,
  53. 178,
  54. 182,
  55. 185,
  56. 191,
  57. 193,
  58. 200,
  59. 201,
  60. 202,
  61. 206,
  62. 214,
  63. 216,
  64. 219,
  65. 220,
  66. 223,
  67. 226,
  68. 232,
  69. 233,
  70. 234,
  71. 239,
  72. 247,
  73. 249,
  74. 254,
  75. 263,
  76. 266,
  77. 269,
  78. 270,
  79. 274,
  80. 275,
  81. 276,
  82. 282,
  83. 283,
  84. 288,
  85. 292,
  86. 304,
  87. 307,
  88. 314,
  89. 322,
  90. 323,
  91. 328,
  92. 330,
  93. 332,
  94. 336,
  95. 339,
  96. 341,
  97. 350,
  98. 357,
  99. 359,
  100. 380,
  101. 381,
  102. 385,
  103. 389,
  104. 391,
  105. 399,
  106. 401,
  107. 412,
  108. 414,
  109. 420,
  110. 422,
  111. 432,
  112. 434,
  113. 436,
  114. 438,
  115. 448,
  116. 451,
  117. 453,
  118. 456,
  119. 462,
  120. 468,
  121. 469,
  122. 470,
  123. 474,
  124. 476,
  125. 477,
  126. 480,
  127. 483,
  128. 484,
  129. 488,
  130. 490,
  131. 504,
  132. 509,
  133. 514,
  134. 517,
  135. 522,
  136. 524,
  137. 525,
  138. 533,
  139. 550,
  140. 555,
  141. 560,
  142. 561,
  143. 562,
  144. 567,
  145. 570,
  146. 572,
  147. 573,
  148. 580,
  149. 590,
  150. 596,
  151. 597,
  152. 599,
  153. 600,
  154. 601,
  155. 606,
  156. 607,
  157. 608}

In [30]:

finally_similar_users = similar_users.ix[list(ids)]

In [29]:

#定义两个变量,分子和分母
#分子:
numerator =0
denominator =0

In [34]:

for sim_uid,similarty in finally_similar_users.iteritems():
    #得到近邻用户的评分
    sim_user_rated_movies = ratings_matrix.loc[sim_uid].dropna()
    #print(sim_user_rated_movies)
    sim_user_rating_for_item1 = sim_user_rated_movies[1]
    #计算分子和分母
    #分子:
    numerator += similarty*sim_user_rating_for_item1
    denominator += similarty

In [35]:

predict_rating = numerator/denominator

In [36]:

predict_rating

Out[36]:

3.872341815681296

In [37]:

def predict(uid, iid, ratings_matrix, user_similar):
    '''
    预测给定用户对给定物品的评分值
    :param uid: 用户ID
    :param iid: 物品ID
    :param ratings_matrix: 用户-物品评分矩阵
    :param user_similar: 用户两两相似度矩阵
    :return: 预测的评分值
    '''
    print("开始预测用户<%d>对电影<%d>的评分..."%(uid, iid))
    # 1. 找出uid用户的相似用户
    similar_users = user_similar[uid].drop([uid]).dropna()
    # 相似用户筛选规则:正相关的用户
    similar_users = similar_users.where(similar_users>0).dropna()
    if similar_users.empty is True:
        raise Exception("用户<%d>没有相似的用户" % uid)
    # 2. 从uid用户的近邻相似用户中筛选出对iid物品有评分记录的近邻用户
    ids = set(ratings_matrix[iid].dropna().index)&set(similar_users.index)
    finally_similar_users = similar_users.ix[list(ids)]
    # 3. 结合uid用户与其近邻用户的相似度预测uid用户对iid物品的评分
    numerator = 0    # 评分预测公式的分子部分的值
    denominator = 0    # 评分预测公式的分母部分的值
    for sim_uid, similarity in finally_similar_users.iteritems():
        # 近邻用户的评分数据
        sim_user_rated_movies = ratings_matrix.ix[sim_uid].dropna()
        # 近邻用户对iid物品的评分
        sim_user_rating_for_item = sim_user_rated_movies[iid]
        # 计算分子的值
        numerator += similarity * sim_user_rating_for_item
        # 计算分母的值
        denominator += similarity
    # 计算预测的评分值并返回
    predict_rating = numerator/denominator
    print("预测出用户<%d>对电影<%d>的评分:%0.2f" % (uid, iid, predict_rating))
    return round(predict_rating, 2)

In [38]:

def predict_all(uid, ratings_matrix, user_similar):
    '''
    预测全部评分
    :param uid: 用户id
    :param ratings_matrix: 用户-物品打分矩阵
    :param user_similar: 用户两两间的相似度
    :return: 生成器,逐个返回预测评分
    '''
    # 准备要预测的物品的id列表
    item_ids = ratings_matrix.columns
    # 逐个预测
    for iid in item_ids:
        try:
            rating = predict(uid, iid, ratings_matrix, user_similar)
        except Exception as e:
            print(e)
        else:
            yield uid, iid, rating
if __name__ == '__main__':
    for i in predict_all(1, ratings_matrix, user_similar):
        pass
  1. 开始预测用户<1>对电影<1>的评分...
  2. 预测出用户<1>对电影<1>的评分:3.87
  3. 开始预测用户<1>对电影<2>的评分...
  4. 预测出用户<1>对电影<2>的评分:3.38
  5. 开始预测用户<1>对电影<3>的评分...
  6. 预测出用户<1>对电影<3>的评分:3.14
  7. 开始预测用户<1>对电影<4>的评分...
  8. 预测出用户<1>对电影<4>的评分:2.41
  9. 开始预测用户<1>对电影<5>的评分...
  10. 预测出用户<1>对电影<5>的评分:3.09
  11. 开始预测用户<1>对电影<6>的评分...
  12. 预测出用户<1>对电影<6>的评分:3.83
  13. 开始预测用户<1>对电影<7>的评分...
  14. 预测出用户<1>对电影<7>的评分:3.22
  15. 开始预测用户<1>对电影<8>的评分...
  16. 预测出用户<1>对电影<8>的评分:2.47
  17. 开始预测用户<1>对电影<9>的评分...
  18. 预测出用户<1>对电影<9>的评分:2.59
  19. 开始预测用户<1>对电影<10>的评分...
  20. 预测出用户<1>对电影<10>的评分:3.41
  21. 开始预测用户<1>对电影<11>的评分...
  22. 预测出用户<1>对电影<11>的评分:3.68
  23. 开始预测用户<1>对电影<12>的评分...
  1. 预测出用户<1>对电影<12>的评分:2.49
  2. 开始预测用户<1>对电影<13>的评分...
  3. 预测出用户<1>对电影<13>的评分:3.19
  4. 开始预测用户<1>对电影<14>的评分...
  5. 预测出用户<1>对电影<14>的评分:4.23
  6. 开始预测用户<1>对电影<15>的评分...

In [39]:

results = predict_all(1, ratings_matrix, user_similar)

In [41]:

sorted(results, key=lambda x: x[2], reverse=True)[:20]
  1. 开始预测用户<1>对电影<1>的评分...
  2. 预测出用户<1>对电影<1>的评分:3.87
  3. 开始预测用户<1>对电影<2>的评分...
  4. 预测出用户<1>对电影<2>的评分:3.38
  5. 开始预测用户<1>对电影<3>的评分...
  6. 预测出用户<1>对电影<3>的评分:3.14
  7. 开始预测用户<1>对电影<4>的评分...
  8. 预测出用户<1>对电影<4>的评分:2.41
  9. 开始预测用户<1>对电影<5>的评分...
  10. 预测出用户<1>对电影<5>的评分:3.09
  11. 开始预测用户<1>对电影<6>的评分...
  12. 预测出用户<1>对电影<6>的评分:3.83
  13. 开始预测用户<1>对电影<7>的评分...
  14. 预测出用户<1>对电影<7>的评分:3.22
  15. 开始预测用户<1>对电影<8>的评分...
  16. 预测出用户<1>对电影<8>的评分:2.47
  17. 开始预测用户<1>对电影<9>的评分...
  18. 预测出用户<1>对电影<9>的评分:2.59
  19. 开始预测用户<1>对电影<10>的评分...
  20. 开始预测用户<1>对电影<13>的评分...
  21. 预测出用户<1>对电影<13>的评分:3.19
  22. 开始预测用户<1>对电影<14>的评分...
  23. 预测出用户<1>对电影<14>的评分:4.23
  24. 开始预测用户<1>对电影<15>的评分...
  25. 预测出用户<1>对电影<15>的评分:2.79
  26. 开始预测用户<1>对电影<16>的评分...
  27. 预测出用户<1>对电影<16>的评分:3.98
  28. 开始预测用户<1>对电影<17>的评分...
  29. 预测出用户<1>对电影<17>的评分:3.88
  30. 开始预测用户<1>对电影<18>的评分...
  31. 预测出用户<1>对电影<18>的评分:3.61
  32. 开始预测用户<1>对电影<19>的评分...
  33. 预测出用户<1>对电影<19>的评分:2.77
  34. 开始预测用户<1>对电影<20>的评分...

Out[41]:

  1. [(1, 99, 5.0),
  2. (1, 123, 5.0),
  3. (1, 148, 5.0),
  4. (1, 271, 5.0),
  5. (1, 484, 5.0),
  6. (1, 496, 5.0),
  7. (1, 549, 5.0),
  8. (1, 633, 5.0),
  9. (1, 876, 5.0),
  10. (1, 1105, 5.0),
  11. (1, 1150, 5.0),
  12. (1, 1151, 5.0),
  13. (1, 1406, 5.0),
  14. (1, 1533, 5.0),
  15. (1, 1596, 5.0),
  16. (1, 1631, 5.0),
  17. (1, 1696, 5.0),
  18. (1, 2075, 5.0),
  19. (1, 2131, 5.0),
  20. (1, 2196, 5.0)]

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/627103
推荐阅读
相关标签
  

闽ICP备14008679号