赞
踩
个性化推荐(推荐系统)经历了多年的发展,已经成为互联网产品的标配,也是AI成功落地的分支之一,在电商(淘宝/京东)、资讯(今日头条/微博)、音乐(网易云音乐/QQ音乐)、短视频(抖音/快手)等热门应用中,推荐系统都是核心组件之一。
搜索 | 推荐 | |
---|---|---|
行为方式 | 主动 | 被动 |
意图 | 明确 | 模糊 |
个性化 | 弱 | 强 |
流量分布 | 马太效应 | 长尾效应 |
目标 | 快速满足 | 持续服务 |
评估指标 | 简明 | 复杂 |
- 推荐个性化较强,用户被动的接受,希望能够提供持续的服务
- 搜索个性化弱,用户主动搜索,快速满足用户的需求
feed 流 信息流
由Twitter工程师Nathan Marz(storm项目发起人)提出
Lambda系统架构提供了一个结合实时数据和Hadoop预先计算的数据环境和混合平台, 提供一个实时的数据视图
- 离线计算和实时计算共同提供服务的问题
- 离线计算优缺点
- 优点 能够处理的数据量可以很大 比如pb级别
- 缺点 速度比较慢 分钟级别的延迟
- 实时计算
- 优点 响应快 来一条数据处理一条 ms级别响应
- 缺点 处理的数据量小一些
- 离线计算的框架
- hadoop hdfs mapreduce
- spark core , spark sql
- hive
- 实时计算框架
- spark streaming
- storm
- flink
- 消息中间件
- flume 日志采集系统
- kafka 消息队列
- 存储相关
- hbase nosql数据库
- hive sql操作hdfs数据
Data(数据)->Features(特征)->ML Algorithm(机器学习算法)->Prediction Output(预测输出)
显性数据
隐形数据
数据量/数据能否满足要求
用数据表示特征
将所有用户行为合并在一起 ,形成一个user-item 矩阵
选择合适的算法
算法思想:物以类聚,人以群分
基本的协同过滤推荐算法基于以下假设:
实现协同过滤推荐有以下几个步骤:
- 找出最相似的人或物品:TOP-N相似的人或物品
通过计算两两的相似度来进行排序,即可找出TOP-N相似的人或物品
- 根据相似的人或物品产生推荐结果
利用TOP-N结果生成初始推荐结果,然后过滤掉用户已经有过记录的物品或明确表示不感兴趣的物品
以下是一个简单的示例,数据集相当于一个用户对物品的购买记录表:打勾表示用户对物品的有购买记录
User-Based CF
Item-Based CF
通过前面两个demo,相信大家应该已经对协同过滤推荐算法的设计与实现有了比较清晰的认识。
协同过滤思路介绍
- CF 物以类聚人以群分
- 做协同过滤,首先特征工程创建用户-物品的评分矩阵。
- 基于用户的协同过滤
- 给用户A 找到最相似的N个用户
- N个用户消费过哪些物品
- N个用户消费过的物品中-A用户消费过的就是推荐结果
- 基于物品的协同过滤
- 给物品A 找到最相似的N个物品
- A用户消费记录 找到这些物品的相似物品
- 从这些相似物品先去重-A用户消费过的就是推荐结果
相似度的计算方法
E ( p , q ) = ∑ i = 1 n ( p i − q i ) 2 E(p,q) = \sqrt{\sum_{i=1}^n (p_i - q_i)^2} E(p,q)=i=1∑n(pi−qi)2
欧氏距离的值是一个非负数, 最大值正无穷, 通常计算相似度的结果希望是[-1,1]或[0,1]之间,一般可以使用
如下转化公式:
1 1 + E ( p , q ) \frac {1} {1+E(p,q)} 1+E(p,q)1
余弦相似度适合用户评分数据(实数值), 杰卡德相似度适用于隐式反馈数据(0,1布尔值)(是否收藏,是否点击,是否加购物车)
皮尔逊相关系数
1.计算出用户1和其它用户之间的相似度
2.按照相似度大小排序, K近邻 如K取4:
3.取出近邻用户的购物清单
4.去除用户1已经购买过的商品
5.在剩余的物品中根据评分排序
6.物品相似度计算
1.计算物品与物品间的相似度
2.找出物品1的相似商品
3.选择最近似的物品
4.基于用户与物品的协同过滤比较
users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 构建数据集
datasets = [
["buy",None,"buy","buy",None],
["buy",None,None,"buy","buy"],
["buy",None,"buy",None,None],
[None,"buy",None,"buy","buy"],
["buy","buy","buy",None,"buy"],
]
users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
[1, 0, 1, 1, 0],
[1, 0, 0, 1, 1],
[1, 0, 1, 0, 0],
[0, 1, 0, 1, 1],
[1, 1, 1, 0, 1],
]
import pandas as pd
df = pd.DataFrame(datasets, columns=items, index=users)
print(df)
# Item A Item B Item C Item D Item E
# User1 1 0 1 1 0
# User2 1 0 0 1 1
# User3 1 0 1 0 0
# User4 0 1 0 1 1
# User5 1 1 1 0 1
# 直接计算某两项的杰卡德相似系数
import numpy as np
# from sklearn.metrics import jaccard_similarity_score
from sklearn.metrics import jaccard_score
# 计算Item A 和Item B的相似度
print(jaccard_score(df["Item A"], df["Item B"]))
# 计算所有的数据两两的杰卡德相似系数
from sklearn.metrics.pairwise import pairwise_distances
# pairwise_distances,注意该方法返回的是余弦距离,余弦距离= 1 - 余弦相似度
# 计算用户间相似度
user_similar = 1 - pairwise_distances(np.array(df), metric="jaccard")
user_similar = pd.DataFrame(user_similar, columns=users, index=users)
print("用户之间的两两相似度:")
print(user_similar)
# 计算物品间相似度
item_similar = 1 - pairwise_distances(np.array(df.T), metric="jaccard")
item_similar = pd.DataFrame(item_similar, columns=items, index=items)
print("物品之间的两两相似度:")
print(item_similar)
# 0.2
# 用户之间的两两相似度:
# User1 User2 User3 User4 User5
# User1 1.000000 0.50 0.666667 0.2 0.4
# User2 0.500000 1.00 0.250000 0.5 0.4
# User3 0.666667 0.25 1.000000 0.0 0.5
# User4 0.200000 0.50 0.000000 1.0 0.4
# User5 0.400000 0.40 0.500000 0.4 1.0
# 物品之间的两两相似度:
# Item A Item B Item C Item D Item E
# Item A 1.00 0.200000 0.75 0.40 0.400000
# Item B 0.20 1.000000 0.25 0.25 0.666667
# Item C 0.75 0.250000 1.00 0.20 0.200000
# Item D 0.40 0.250000 0.20 1.00 0.500000
# Item E 0.40 0.666667 0.20 0.50 1.000000
有了两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了
import pandas as pd
import numpy as np
from pprint import pprint
users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
[1, 0, 1, 1, 0],
[1, 0, 0, 1, 1],
[1, 0, 1, 0, 0],
[0, 1, 0, 1, 1],
[1, 1, 1, 0, 1],
]
df = pd.DataFrame(datasets, columns=items, index=users)
print('df: ')
print(df)
# 计算所有的数据两两的杰卡德相似系数
from sklearn.metrics.pairwise import pairwise_distances
# 计算用户间相似度
user_similar = 1 - pairwise_distances(np.array(df), metric="jaccard")
user_similar = pd.DataFrame(user_similar, columns=users, index=users)
print("用户之间的两两相似度:")
print(user_similar)
topN_users = {}
# 遍历每一行数据
for i in user_similar.index:
# 取出每一列数据,并删除自身,然后排序数据
_df = user_similar.loc[i].drop([i])
_df_sorted = _df.sort_values(ascending=False)
top2 = list(_df_sorted.index[:2])
topN_users[i] = top2
print("Top2相似用户:")
pprint(topN_users)
rs_results = {}
# 构建推荐结果
for user, sim_users in topN_users.items():
rs_result = set() # 存储推荐结果
for sim_user in sim_users:
# 构建初始的推荐结果
rs_result = rs_result.union(
set(df.loc[sim_user].replace(0, np.nan).dropna().index))
# 过滤掉已经购买过的物品
rs_result -= set(df.loc[user].replace(0, np.nan).dropna().index)
rs_results[user] = rs_result
print("最终推荐结果:")
pprint(rs_results)
# df:
# Item A Item B Item C Item D Item E
# User1 1 0 1 1 0
# User2 1 0 0 1 1
# User3 1 0 1 0 0
# User4 0 1 0 1 1
# User5 1 1 1 0 1
# 用户之间的两两相似度:
# User1 User2 User3 User4 User5
# User1 1.000000 0.50 0.666667 0.2 0.4
# User2 0.500000 1.00 0.250000 0.5 0.4
# User3 0.666667 0.25 1.000000 0.0 0.5
# User4 0.200000 0.50 0.000000 1.0 0.4
# User5 0.400000 0.40 0.500000 0.4 1.0
# Top2相似用户:
# {'User1': ['User3', 'User2'],
# 'User2': ['User1', 'User4'],
# 'User3': ['User1', 'User5'],
# 'User4': ['User2', 'User5'],
# 'User5': ['User3', 'User1']}
# 最终推荐结果:
# {'User1': {'Item E'},
# 'User2': {'Item B', 'Item C'},
# 'User3': {'Item B', 'Item D', 'Item E'},
# 'User4': {'Item A', 'Item C'},
# 'User5': {'Item D'}}
import pandas as pd
import numpy as np
from pprint import pprint
users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
[1, 0, 1, 1, 0],
[1, 0, 0, 1, 1],
[1, 0, 1, 0, 0],
[0, 1, 0, 1, 1],
[1, 1, 1, 0, 1],
]
df = pd.DataFrame(datasets, columns=items, index=users)
print('df: ')
print(df)
# 计算所有的数据两两的杰卡德相似系数
from sklearn.metrics.pairwise import pairwise_distances
# 计算物品间相似度
item_similar = 1 - pairwise_distances(np.array(df.T), metric="jaccard")
item_similar = pd.DataFrame(item_similar, columns=items, index=items)
print("物品之间的两两相似度:")
print(item_similar)
topN_items = {}
# 遍历每一行数据
for i in item_similar.index:
# 取出每一列数据,并删除自身,然后排序数据
_df = item_similar.loc[i].drop([i])
_df_sorted = _df.sort_values(ascending=False)
top2 = list(_df_sorted.index[:2])
topN_items[i] = top2
print("Top2相似物品:")
pprint(topN_items)
rs_results = {}
# 构建推荐结果
for user in df.index: # 遍历所有用户
rs_result = set()
for item in df.loc[user].replace(0,
np.nan).dropna().index: # 取出每个用户当前已购物品列表
# 根据每个物品找出最相似的TOP-N物品,构建初始推荐结果
rs_result = rs_result.union(topN_items[item])
# 过滤掉用户已购的物品
rs_result -= set(df.loc[user].replace(0, np.nan).dropna().index)
# 添加到结果中
rs_results[user] = rs_result
print("最终推荐结果:")
pprint(rs_results)
# df:
# Item A Item B Item C Item D Item E
# User1 1 0 1 1 0
# User2 1 0 0 1 1
# User3 1 0 1 0 0
# User4 0 1 0 1 1
# User5 1 1 1 0 1
# 物品之间的两两相似度:
# Item A Item B Item C Item D Item E
# Item A 1.00 0.200000 0.75 0.40 0.400000
# Item B 0.20 1.000000 0.25 0.25 0.666667
# Item C 0.75 0.250000 1.00 0.20 0.200000
# Item D 0.40 0.250000 0.20 1.00 0.500000
# Item E 0.40 0.666667 0.20 0.50 1.000000
# Top2相似物品:
# {'Item A': ['Item C', 'Item D'],
# 'Item B': ['Item E', 'Item C'],
# 'Item C': ['Item A', 'Item B'],
# 'Item D': ['Item E', 'Item A'],
# 'Item E': ['Item B', 'Item D']}
# 最终推荐结果:
# {'User1': {'Item B', 'Item E'},
# 'User2': {'Item C', 'Item B'},
# 'User3': {'Item B', 'Item D'},
# 'User4': {'Item C', 'Item A'},
# 'User5': {'Item D'}}
在前面的demo中,我们只是使用用户对物品的一个购买记录,类似也可以是比如浏览点击记录、收听记录等等。这样数据我们预测的结果其实相当于是在预测用户是否对某物品感兴趣,对于喜好程度不能很好的预测。
因此在协同过滤推荐算法中其实会更多的利用用户对物品的“评分”数据来进行预测,通过评分数据集,我们可以预测用户对于他没有评分过的物品的评分。其实现原理和思想和都是一样的,只是使用的数据集是用户-物品的评分数据。
用户-物品的评分矩阵,根据评分矩阵的稀疏程度会有不同的解决方案
在这里插入图片描述
这里先介绍稠密评分矩阵的处理,稀疏矩阵的处理相对会复杂一些,我们到后面再来介绍。
目的:预测用户1对物品E的评分
注意这里构建评分数据时,对于缺失的部分我们需要保留为None,如果设置为0那么会被当作评分值为0去对待
users = ["User1", "User2", "User3", "User4", "User5"]
items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
# 用户购买记录数据集
datasets = [
[5, 3, 4, 4, None],
[3, 1, 2, 3, 3],
[4, 3, 4, 3, 5],
[3, 3, 1, 5, 4],
[1, 5, 5, 2, 1],
]
对于评分数据这里我们采用皮尔逊相关系数[-1,1]来计算,-1表示强负相关,+1表示强正相关
pandas中corr方法可直接用于计算皮尔逊相关系数
df = pd.DataFrame(datasets, columns=items, index=users)
print('df ')
print(df)
print("用户之间的两两相似度:")
# 直接计算皮尔逊相关系数
# 默认是按列进行计算,因此如果计算用户间的相似度,当前需要进行转置
user_similar = df.T.corr()
print(user_similar.round(4))
print("物品之间的两两相似度:")
item_similar = df.corr()
print(item_similar.round(4))
# df
# Item A Item B Item C Item D Item E
# User1 5 3 4 4 NaN
# User2 3 1 2 3 3.0
# User3 4 3 4 3 5.0
# User4 3 3 1 5 4.0
# User5 1 5 5 2 1.0
# 用户之间的两两相似度:
# User1 User2 User3 User4 User5
# User1 1.0000 0.8528 0.7071 0.0000 -0.7921
# User2 0.8528 1.0000 0.4677 0.4900 -0.9001
# User3 0.7071 0.4677 1.0000 -0.1612 -0.4666
# User4 0.0000 0.4900 -0.1612 1.0000 -0.6415
# User5 -0.7921 -0.9001 -0.4666 -0.6415 1.0000
# 物品之间的两两相似度:
# Item A Item B Item C Item D Item E
# Item A 1.0000 -0.4767 -0.1231 0.5322 0.9695
# Item B -0.4767 1.0000 0.6455 -0.3101 -0.4781
# Item C -0.1231 0.6455 1.0000 -0.7206 -0.4276
# Item D 0.5322 -0.3101 -0.7206 1.0000 0.5817
# Item E 0.9695 -0.4781 -0.4276 0.5817 1.0000
可以看到与用户1最相似的是用户2和用户3;与物品A最相似的物品分别是物品E和物品D。
注意:**我们在预测评分时,往往是通过与其有正相关的用户或物品进行预测,如果不存在正相关的情况,那么将无法做出预测。**这一点尤其是在稀疏评分矩阵中尤为常见,因为稀疏评分矩阵中很难得出正相关系数。
User-Based CF 评分预测:使用用户间的相似度进行预测
关于评分预测的方法也有比较多的方案,下面介绍一种效果比较好的方案,该方案考虑了用户本身的评分评分以及近邻用户的加权平均相似度打分来进行预测:
p r e d ( u , i ) = r ^ u i = ∑ v ∈ U s i m ( u , v ) ∗ r v i ∑ v ∈ U ∣ s i m ( u , v ) ∣ pred(u,i)=\hat{r}_{ui}=\cfrac{\sum_{v\in U}sim(u,v)*r_{vi}}{\sum_{v\in U}|sim(u,v)|} pred(u,i)=r^ui=∑v∈U∣sim(u,v)∣∑v∈Usim(u,v)∗rvi
我们要预测用户1对物品E的评分,那么可以根据与用户1最近邻的用户2和用户3进行预测,计算如下:
用户1和用户2和3的相关性分别为 0.85, 0.71;用户2和用户3,对E喜好的值分别为 3, 5;
p r e d ( u 1 , i 5 ) = 0.85 ∗ 3 + 0.71 ∗ 5 0.85 + 0.71 = 3.91 pred(u_1, i_5) =\cfrac{0.85*3+0.71*5}{0.85+0.71} = 3.91 pred(u1,i5)=0.85+0.710.85∗3+0.71∗5=3.91
最终预测出用户1对物品5的评分为3.91
Item-Based CF 评分预测:使用物品间的相似度进行预测
这里利用物品相似度预测的计算同上,同样考虑了用户自身的平均打分因素,结合预测物品与相似物品的加权平均相似度打分进行来进行预测
p r e d ( u , i ) = r ^ u i = ∑ j ∈ I r a t e d s i m ( i , j ) ∗ r u j ∑ j ∈ I r a t e d s i m ( i , j ) pred(u,i)=\hat{r}_{ui}=\cfrac{\sum_{j\in I_{rated}}sim(i,j)*r_{uj}}{\sum_{j\in I_{rated}}sim(i,j)} pred(u,i)=r^ui=∑j∈Iratedsim(i,j)∑j∈Iratedsim(i,j)∗ruj
我们要预测用户1对物品E的评分,那么可以根据与物品E最近邻的物品A和物品D进行预测,计算如下:
用户1对物品A和D的喜好为 5,4;物品E和物品A和物品D的相关性为0.97,0.58
p r e d ( u 1 , i 5 ) = 0.97 ∗ 5 + 0.58 ∗ 4 0.97 + 0.58 = 4.63 pred(u_1, i_5) = \cfrac {0.97*5+0.58*4}{0.97+0.58} = 4.63 pred(u1,i5)=0.97+0.580.97∗5+0.58∗4=4.63
对比可见,User-Based CF预测评分和Item-Based CF的评分结果也是存在差异的
因为严格意义上他们其实应当属于两种不同的推荐算法,各自在不同的领域不同场景下,都会比另一种的效果更佳,但具体哪一种更佳,必须经过合理的效果评估,因此在实现推荐系统时这两种算法往往都是需要去实现的,然后对产生的推荐效果进行评估分析选出更优方案。
原理
根据用户与物品的潜在表现,我们就可以预测用户对未评分的物品的喜爱程度
把原来的大矩阵, 近似分解成两个小矩阵的乘积, 在实际推荐计算时不再使用大矩阵, 而是使用分解得到的两个小矩阵
用户-物品评分矩阵A是M X N维, 即一共有M个用户, n 个物品 我们选一个很小的数 K (K<< M, K<<N)
通过计算得到两个矩阵U 和 V , U是M * K矩阵 , 矩阵V是 N * K, U m ∗ k V n ∗ k T 约等于 A m ∗ n U_{m*k} V^{T}_{n*k} 约等于 A_{m*n} Um∗kVn∗kT约等于Am∗n
类似这样的计算过程就是矩阵分解
基于矩阵分解的方法
ALS方法
前面我们已经基本掌握了协同过滤推荐算法,以及其中两种最基本的实现方案:User-Based CF和Item-Based CF,下面我们将利用真是的数据来进行实战演练。
案例需求 演示效果
分析案例
MovieLens Latest Datasets Small
建议下载 ml-latest-small.zip,数据量小,便于我们单机使用和运行
目标:根据ml-latest-small/ratings.csv
(用户-电影评分数据),分别实现User-Based CF和Item-Based CF,并进行电影评分的预测,然后为用户实现电影推荐
加载ratings.csv,并转换为用户-电影评分矩阵
import os
import pandas as pd
import numpy as np
DATA_PATH = "./datasets/ml-latest-small/ratings.csv"
CACHE_DIR = "./datasets/cache/"
def load_data(data_path):
'''
加载数据
:param data_path: 数据集路径
:param cache_path: 数据集缓存路径
:return: 用户-物品评分矩阵
'''
# 数据集缓存地址
cache_path = os.path.join(CACHE_DIR, "ratings_matrix.cache")
print("开始加载数据集...")
if os.path.exists(cache_path): # 判断是否存在缓存文件
print("加载缓存中...")
ratings_matrix = pd.read_pickle(cache_path)
print("从缓存加载数据集完毕")
else:
print("加载新数据中...")
# 设置要加载的数据字段的类型
dtype = {"userId": np.int32, "movieId": np.int32, "rating": np.float32}
# 加载数据,我们只用前三列数据,分别是用户ID,电影ID,已经用户对电影的对应评分
ratings = pd.read_csv(data_path, dtype=dtype, usecols=range(3))
# 透视表,将电影ID转换为列名称,转换成为一个User-Movie的评分矩阵
ratings_matrix = ratings.pivot_table(index=["userId"], columns=["movieId"], values="rating")
# 存入缓存文件
ratings_matrix.to_pickle(cache_path)
print("数据集加载完毕")
return ratings_matrix
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
print(ratings_matrix)
计算用户或物品两两相似度:
def compute_pearson_similarity(ratings_matrix, based="user"):
'''
计算皮尔逊相关系数
:param ratings_matrix: 用户-物品评分矩阵
:param based: "user" or "item"
:return: 相似度矩阵
'''
user_similarity_cache_path = os.path.join(CACHE_DIR, "user_similarity.cache")
item_similarity_cache_path = os.path.join(CACHE_DIR, "item_similarity.cache")
# 基于皮尔逊相关系数计算相似度
# 用户相似度
if based == "user":
if os.path.exists(user_similarity_cache_path):
print("正从缓存加载用户相似度矩阵")
similarity = pd.read_pickle(user_similarity_cache_path)
else:
print("开始计算用户相似度矩阵")
similarity = ratings_matrix.T.corr()
similarity.to_pickle(user_similarity_cache_path)
elif based == "item":
if os.path.exists(item_similarity_cache_path):
print("正从缓存加载物品相似度矩阵")
similarity = pd.read_pickle(item_similarity_cache_path)
else:
print("开始计算物品相似度矩阵")
similarity = ratings_matrix.corr()
similarity.to_pickle(item_similarity_cache_path)
else:
raise Exception("Unhandled 'based' Value: %s"%based)
print("相似度矩阵计算/加载完毕")
return similarity
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
user_similar = compute_pearson_similarity(ratings_matrix, based="user")
print(user_similar)
item_similar = compute_pearson_similarity(ratings_matrix, based="item")
print(item_similar)
以上实现,仅用于实验阶段,因为工业上、或生产环境中,数据量是远超过我们本例中使用的数据量的,而pandas是无法支撑起大批量数据的运算的,因此工业上通常会使用spark、mapReduce等分布式计算框架来实现,我们后面的课程中也是建立在此基础上进行实践的。
但是正如前面所说,推荐算法的思想和理念都是统一的,不论使用什么平台工具、有多大的数据体量,其背后的实现原理都是不变的。
所以在本节,大家要深刻去学习的是推荐算法的业务流程,以及在具体的业务场景中,如本例的电影推荐,如何实现出推荐算法,并产生推荐结果。
p r e d ( u , i ) = r ^ u i = ∑ v ∈ U s i m ( u , v ) ∗ r v i ∑ v ∈ U ∣ s i m ( u , v ) ∣ pred(u,i)=\hat{r}_{ui}=\cfrac{\sum_{v\in U}sim(u,v)*r_{vi}}{\sum_{v\in U}|sim(u,v)|} pred(u,i)=r^ui=∑v∈U∣sim(u,v)∣∑v∈Usim(u,v)∗rvi
实现评分预测方法:predict
def predict(uid, iid, ratings_matrix, user_similar):
'''
预测给定用户对给定物品的评分值
:param uid: 用户ID
:param iid: 物品ID
:param ratings_matrix: 用户-物品评分矩阵
:param user_similar: 用户两两相似度矩阵
:return: 预测的评分值
'''
print("开始预测用户<%d>对电影<%d>的评分..."%(uid, iid))
# 1. 找出uid用户的相似用户
similar_users = user_similar[uid].drop([uid]).dropna()
# 相似用户筛选规则:正相关的用户
similar_users = similar_users.where(similar_users>0).dropna()
if similar_users.empty is True:
raise Exception("用户<%d>没有相似的用户" % uid)
# 2. 从uid用户的近邻相似用户中筛选出对iid物品有评分记录的近邻用户
ids = set(ratings_matrix[iid].dropna().index)&set(similar_users.index)
finally_similar_users = similar_users.ix[list(ids)]
# 3. 结合uid用户与其近邻用户的相似度预测uid用户对iid物品的评分
sum_up = 0 # 评分预测公式的分子部分的值
sum_down = 0 # 评分预测公式的分母部分的值
for sim_uid, similarity in finally_similar_users.iteritems():
# 近邻用户的评分数据
sim_user_rated_movies = ratings_matrix.ix[sim_uid].dropna()
# 近邻用户对iid物品的评分
sim_user_rating_for_item = sim_user_rated_movies[iid]
# 计算分子的值
sum_up += similarity * sim_user_rating_for_item
# 计算分母的值
sum_down += similarity
# 计算预测的评分值并返回
predict_rating = sum_up/sum_down
print("预测出用户<%d>对电影<%d>的评分:%0.2f" % (uid, iid, predict_rating))
return round(predict_rating, 2)
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
user_similar = compute_pearson_similarity(ratings_matrix, based="user")
# 预测用户1对物品1的评分
predict(1, 1, ratings_matrix, user_similar)
# 预测用户1对物品2的评分
predict(1, 2, ratings_matrix, user_similar)
实现预测全部评分方法:predict_all
def predict_all(uid, ratings_matrix, user_similar):
'''
预测全部评分
:param uid: 用户id
:param ratings_matrix: 用户-物品打分矩阵
:param user_similar: 用户两两间的相似度
:return: 生成器,逐个返回预测评分
'''
# 准备要预测的物品的id列表
item_ids = ratings_matrix.columns
# 逐个预测
for iid in item_ids:
try:
rating = predict(uid, iid, ratings_matrix, user_similar)
except Exception as e:
print(e)
else:
yield uid, iid, rating
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
user_similar = compute_pearson_similarity(ratings_matrix, based="user")
for i in predict_all(1, ratings_matrix, user_similar):
pass
添加过滤规则
def _predict_all(uid, item_ids, ratings_matrix, user_similar):
'''
预测全部评分
:param uid: 用户id
:param item_ids: 要预测的物品id列表
:param ratings_matrix: 用户-物品打分矩阵
:param user_similar: 用户两两间的相似度
:return: 生成器,逐个返回预测评分
'''
# 逐个预测
for iid in item_ids:
try:
rating = predict(uid, iid, ratings_matrix, user_similar)
except Exception as e:
print(e)
else:
yield uid, iid, rating
def predict_all(uid, ratings_matrix, user_similar, filter_rule=None):
'''
预测全部评分,并可根据条件进行前置过滤
:param uid: 用户ID
:param ratings_matrix: 用户-物品打分矩阵
:param user_similar: 用户两两间的相似度
:param filter_rule: 过滤规则,只能是四选一,否则将抛异常:"unhot","rated",["unhot","rated"],None
:return: 生成器,逐个返回预测评分
'''
if not filter_rule:
item_ids = ratings_matrix.columns
elif isinstance(filter_rule, str) and filter_rule == "unhot":
'''过滤非热门电影'''
# 统计每部电影的评分数
count = ratings_matrix.count()
# 过滤出评分数高于10的电影,作为热门电影
item_ids = count.where(count>10).dropna().index
elif isinstance(filter_rule, str) and filter_rule == "rated":
'''过滤用户评分过的电影'''
# 获取用户对所有电影的评分记录
user_ratings = ratings_matrix.ix[uid]
# 评分范围是1-5,小于6的都是评分过的,除此以外的都是没有评分的
_ = user_ratings<6
item_ids = _.where(_==False).dropna().index
elif isinstance(filter_rule, list) and set(filter_rule) == set(["unhot", "rated"]):
'''过滤非热门和用户已经评分过的电影'''
count = ratings_matrix.count()
ids1 = count.where(count > 10).dropna().index
user_ratings = ratings_matrix.ix[uid]
_ = user_ratings < 6
ids2 = _.where(_ == False).dropna().index
# 取二者交集
item_ids = set(ids1)&set(ids2)
else:
raise Exception("无效的过滤参数")
yield from _predict_all(uid, item_ids, ratings_matrix, user_similar)
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
user_similar = compute_pearson_similarity(ratings_matrix, based="user")
for result in predict_all(1, ratings_matrix, user_similar, filter_rule=["unhot", "rated"]):
print(result)
根据预测评分为指定用户进行TOP-N推荐:
def top_k_rs_result(k):
ratings_matrix = load_data(DATA_PATH)
user_similar = compute_pearson_similarity(ratings_matrix, based="user")
results = predict_all(1, ratings_matrix, user_similar, filter_rule=["unhot", "rated"])
return sorted(results, key=lambda x: x[2], reverse=True)[:k]
if __name__ == '__main__':
from pprint import pprint
result = top_k_rs_result(20)
pprint(result)
p r e d ( u , i ) = r ^ u i = ∑ j ∈ I r a t e d s i m ( i , j ) ∗ r u j ∑ j ∈ I r a t e d s i m ( i , j ) pred(u,i)=\hat{r}_{ui}=\cfrac{\sum_{j\in I_{rated}}sim(i,j)*r_{uj}}{\sum_{j\in I_{rated}}sim(i,j)} pred(u,i)=r^ui=∑j∈Iratedsim(i,j)∑j∈Iratedsim(i,j)∗ruj
实现评分预测方法:predict
方法说明:
利用原始评分矩阵、以及物品间两两相似度,预测指定用户对指定物品的评分。
如果无法预测,则抛出异常
def predict(uid, iid, ratings_matrix, item_similar):
'''
预测给定用户对给定物品的评分值
:param uid: 用户ID
:param iid: 物品ID
:param ratings_matrix: 用户-物品评分矩阵
:param item_similar: 物品两两相似度矩阵
:return: 预测的评分值
'''
print("开始预测用户<%d>对电影<%d>的评分..."%(uid, iid))
# 1. 找出iid物品的相似物品
similar_items = item_similar[iid].drop([iid]).dropna()
# 相似物品筛选规则:正相关的物品
similar_items = similar_items.where(similar_items>0).dropna()
if similar_items.empty is True:
raise Exception("物品<%d>没有相似的物品" %id)
# 2. 从iid物品的近邻相似物品中筛选出uid用户评分过的物品
ids = set(ratings_matrix.ix[uid].dropna().index)&set(similar_items.index)
finally_similar_items = similar_items.ix[list(ids)]
# 3. 结合iid物品与其相似物品的相似度和uid用户对其相似物品的评分,预测uid对iid的评分
sum_up = 0 # 评分预测公式的分子部分的值
sum_down = 0 # 评分预测公式的分母部分的值
for sim_iid, similarity in finally_similar_items.iteritems():
# 近邻物品的评分数据
sim_item_rated_movies = ratings_matrix[sim_iid].dropna()
# uid用户对相似物品物品的评分
sim_item_rating_from_user = sim_item_rated_movies[uid]
# 计算分子的值
sum_up += similarity * sim_item_rating_from_user
# 计算分母的值
sum_down += similarity
# 计算预测的评分值并返回
predict_rating = sum_up/sum_down
print("预测出用户<%d>对电影<%d>的评分:%0.2f" % (uid, iid, predict_rating))
return round(predict_rating, 2)
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
item_similar = compute_pearson_similarity(ratings_matrix, based="item")
# 预测用户1对物品1的评分
predict(1, 1, ratings_matrix, item_similar)
# 预测用户1对物品2的评分
predict(1, 2, ratings_matrix, item_similar)
实现预测全部评分方法:predict_all
def predict_all(uid, ratings_matrix, item_similar):
'''
预测全部评分
:param uid: 用户id
:param ratings_matrix: 用户-物品打分矩阵
:param item_similar: 物品两两间的相似度
:return: 生成器,逐个返回预测评分
'''
# 准备要预测的物品的id列表
item_ids = ratings_matrix.columns
# 逐个预测
for iid in item_ids:
try:
rating = predict(uid, iid, ratings_matrix, item_similar)
except Exception as e:
print(e)
else:
yield uid, iid, rating
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
item_similar = compute_pearson_similarity(ratings_matrix, based="item")
for i in predict_all(1, ratings_matrix, item_similar):
pass
添加过滤规则
def _predict_all(uid, item_ids,ratings_matrix, item_similar):
'''
预测全部评分
:param uid: 用户id
:param item_ids: 要预测物品id列表
:param ratings_matrix: 用户-物品打分矩阵
:param item_similar: 物品两两间的相似度
:return: 生成器,逐个返回预测评分
'''
# 逐个预测
for iid in item_ids:
try:
rating = predict(uid, iid, ratings_matrix, item_similar)
except Exception as e:
print(e)
else:
yield uid, iid, rating
def predict_all(uid, ratings_matrix, item_similar, filter_rule=None):
'''
预测全部评分,并可根据条件进行前置过滤
:param uid: 用户ID
:param ratings_matrix: 用户-物品打分矩阵
:param item_similar: 物品两两间的相似度
:param filter_rule: 过滤规则,只能是四选一,否则将抛异常:"unhot","rated",["unhot","rated"],None
:return: 生成器,逐个返回预测评分
'''
if not filter_rule:
item_ids = ratings_matrix.columns
elif isinstance(filter_rule, str) and filter_rule == "unhot":
'''过滤非热门电影'''
# 统计每部电影的评分数
count = ratings_matrix.count()
# 过滤出评分数高于10的电影,作为热门电影
item_ids = count.where(count>10).dropna().index
elif isinstance(filter_rule, str) and filter_rule == "rated":
'''过滤用户评分过的电影'''
# 获取用户对所有电影的评分记录
user_ratings = ratings_matrix.ix[uid]
# 评分范围是1-5,小于6的都是评分过的,除此以外的都是没有评分的
_ = user_ratings<6
item_ids = _.where(_==False).dropna().index
elif isinstance(filter_rule, list) and set(filter_rule) == set(["unhot", "rated"]):
'''过滤非热门和用户已经评分过的电影'''
count = ratings_matrix.count()
ids1 = count.where(count > 10).dropna().index
user_ratings = ratings_matrix.ix[uid]
_ = user_ratings < 6
ids2 = _.where(_ == False).dropna().index
# 取二者交集
item_ids = set(ids1)&set(ids2)
else:
raise Exception("无效的过滤参数")
yield from _predict_all(uid, item_ids, ratings_matrix, item_similar)
if __name__ == '__main__':
ratings_matrix = load_data(DATA_PATH)
item_similar = compute_pearson_similarity(ratings_matrix, based="item")
for result in predict_all(1, ratings_matrix, item_similar, filter_rule=["unhot", "rated"]):
print(result)
为指定用户推荐TOP-N结果
def top_k_rs_result(k):
ratings_matrix = load_data(DATA_PATH)
item_similar = compute_pearson_similarity(ratings_matrix, based="item")
results = predict_all(1, ratings_matrix, item_similar, filter_rule=["unhot", "rated"])
return sorted(results, key=lambda x: x[2], reverse=True)[:k]
if __name__ == '__main__':
from pprint import pprint
result = top_k_rs_result(20)
pprint(result)
好的推荐系统可以实现用户, 服务提供方, 内容提供方的共赢
显示反馈和隐式反馈
显式反馈 | 隐式反馈 | |
---|---|---|
例子 | 电影/书籍评分 是否喜欢这个推荐 | 播放/点击 评论 下载 购买 |
准确性 | 高 | 低 |
数量 | 少 | 多 |
获取成本 | 高 | 低 |
常用评估指标
• 准确性 • 信任度
• 满意度 • 实时性
• 覆盖率 • 鲁棒性
• 多样性 • 可扩展性
• 新颖性 • 商业目标
• 惊喜度 • 用户留存
用户注册信息:性别、年龄、地域
设备信息:定位、手机型号、app列表
社交信息、推荐素材、安装来源
例如腾讯视频&QQ音乐 今日头条&抖音
新用户在冷启动阶段更倾向于热门排行榜,老用户会更加需要长尾推荐
Explore Exploit⼒度
使用单独的特征和模型预估
举例 性别与电视剧的关系
给物品打标签
利用物品的内容信息,将新物品先投放给曾经喜欢过和它内容相似的其他物品的用户。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。