当前位置:   article > 正文

使用SVD方法实现电影推荐系统_fo = file(modelsavefile, 'wb')

fo = file(modelsavefile, 'wb')

这学期选了一门名叫《web智能与社会计算》的课,老师最后偷懒,最后的课程project作业直接让我们参加百度的一个电影推荐系统算法大赛,然后以在这个比赛中的成绩作为这门课大作业的成绩。不过,最终的结果并不需要百度官方的评估,只需要我们的截图即可(参看百度云平台),例如下面这个:



上面最重要的就是RMSE的数值,数值越小代表偏差越小,百度排行榜就是按值从小到大来排列的,这些人使用的可能是比SVD更好的算法,即使这样达到一定范围后再想进步就很难了,估计不会有人低于0.6这个值。



言归正传,下面来说说针对百度这个比赛如何如何用SVD来实现推荐系统,为了了解基本原理可以看看这篇文章:推荐系统相关算法(1):SVD (后面提到的三篇论文也值得一读)

1、数据预处理

本课程的要求是只完成任务一即可,做任务一的时候只需要用到两个数据集,一个是训练数据training_set,一个是待预测的数据predict,百度的要求如下:

l  任务一

n training_set.txt用户评分数据共三列,从左到右依次为userId、movieIdrating即用户id电影id该用户对该电影的评分。列之间以’\t’分隔,行之间以’\r\n’分隔

n predict.txt为预测集合,共两列。从左到右依次是userId,movieId。即用户id,电影id.列之间以’\t’分隔,行之间以’\r\n’分隔。参赛者需要预测出第三列,即该用户对该电影的评分,作为第三列,并提交给评测平台。需要注意的是,参赛者最终提的predict.txt是三列,列之间以’\t’分隔,行之间以’\r\n’分隔。行之间的顺序不能乱,行的总数不能少。

下载下来以后发现数据并不是从0开始计数的,training_set格式如下:

7245481	962729	4.0

7245481	356405	4.0

7245481	836383	4.0

7245481	284550	4.0

7245481	723581	4.0

7245481	827305	4.0

7245481	572786	4.0

7245481	473690	4.0
.....................
.....................
.....................

predict集数据格式如下:

7245481	794171

7245481	381060

7245481	776002

7245481	980705

7245481	354292

7245481	738735

7245481	624561

7245481	985808

7245481	378349

7245481	778269

7245481	242057
...................
...................
...................

在使用SVD的时候需要用数组存储每一个用户和每一个电影,这里用户的ID都是7位,电影的都是6位,如果直接开个七八位大数组来存储内存估计不够,而且还浪费空间,为此需要先把用户和电影ID进行映射到从0开始一个较小的范围内。

  1. userMap = {}
  2. movieMap = {}
  3. with open('training_set.txt') as fp:
  4. fp_user = open('usermap.txt', 'w')
  5. fp_movis = open('moviemap.txt', 'w')
  6. fp_out = open('smallMatrix.txt', 'w')
  7. fp_prediction = open('test.txt', 'r')
  8. fp_out2 = open('smallPredictionMatrix.txt','w')
  9. for line in fp:
  10. line = line.strip()
  11. if line == '':
  12. continue
  13. tup = line.split()
  14. raw_user = tup[0]
  15. raw_movie = tup[1]
  16. rate = float(tup[2])
  17. if raw_user not in userMap:
  18. userMap[raw_user] = len(userMap.keys())
  19. user_id = userMap[raw_user]
  20. if raw_movie not in movieMap:
  21. movieMap[raw_movie] = len(movieMap.keys())
  22. movie_id = movieMap[raw_movie]
  23. fp_out.write('{0} {1} {2}\n'.format(user_id, movie_id, rate))
  24. for raw_user, user_id in userMap.items():
  25. fp_user.write('{0} {1}\n'.format(raw_user, user_id))
  26. for raw_movie, movie_id in movieMap.items():
  27. fp_movis.write('{0} {1}\n'.format(raw_movie, movie_id))
  28. for line2 in fp_prediction:
  29. line2 = line2.strip()
  30. if line2 == '':
  31. continue
  32. tup2 = line2.split()
  33. raw_user2 = tup2[0]
  34. raw_movie2 = tup2[1]
  35. user_id2 = userMap[raw_user2]
  36. movie_id2 = movieMap[raw_movie2]
  37. fp_out2.write('{0} {1}\n'.format(user_id2, movie_id2))

上面代码实现了用户ID和电影ID的映射过程,实现思想很简单,来一个ID,看看之前是否存在过,如果存在用那个值替换,如果不存在新加入一个,这里是从0开始存储的,处理完以后得到四个文件,用户ID,电影ID的键值对,处理完的小范围训练集,处理完的小范围预测集。

小范围的训练集如下:

0 0 4.0
0 1 4.0
0 2 4.0
0 3 4.0
0 4 4.0
0 5 4.0
0 6 4.0
0 7 4.0
0 8 4.0
0 9 4.0
0 10 4.0
0 11 4.0
0 12 4.0
0 13 4.0
0 14 4.0
0 15 4.0
0 16 4.0
0 17 4.0
0 18 4.0
0 19 4.0
0 20 4.0
0 21 4.0
0 22 4.0
0 23 4.0
0 24 4.0
0 25 4.0
0 26 4.0
0 27 4.0
0 28 4.0
0 29 4.0
0 30 4.0
0 31 4.0
0 32 4.0
0 33 4.0
0 34 4.0
0 35 4.0
0 36 4.0
0 37 4.0...
小范围预测集如下:

0 617
0 567
0 575
0 1211
0 1735
0 1255
0 620
0 795
0 890
0 706
0 599
0 1248
0 1651
0 621
0 1996
0 1003
0 2347...

经过这步处理,就不需要再开大数组存储,统计下来不同的用户数,电影数都不到一万个。

2、利用SVD进行训练

得到了小规模数据,修改svd.conf文件里面的值,这里avarageScore这个值需要自己计算后填入,userNum,itemNum是用户和电影数目的范围,后面几个值也并不是固定的,可以根据实际情况进行修改

3.579231 10000 10000 10 0.01 0.05
averageScore userNum itemNum factorNum learnRate regularization 

然后运行svd.py文件即可,我们这里训练数据时迭代一次一般需要十五秒的时间,显然训练是很耗时的,为了简单就迭代了五次而已。


3、预测数据

预测数据其实就是矩阵的乘法运算,相比训练来说速度要快很多。这里我们参考上面那篇博客里面的代码,把训练和预测放在一起执行,最终代码如下:

  1. import math
  2. import random
  3. import cPickle as pickle
  4. #calculate the overall average
  5. def Average(fileName):
  6. fi = open(fileName, 'r')
  7. result = 0.0
  8. cnt = 0
  9. for line in fi:
  10. cnt += 1
  11. arr = line.split()
  12. result += int(arr[2].strip())
  13. return result / cnt
  14. def InerProduct(v1, v2):
  15. result = 0
  16. for i in range(len(v1)):
  17. result += v1[i] * v2[i]
  18. return result
  19. def PredictScore(av, bu, bi, pu, qi):
  20. pScore = av + bu + bi + InerProduct(pu, qi)
  21. if pScore < 1:
  22. pScore = 1
  23. elif pScore > 5:
  24. pScore = 5
  25. return pScore
  26. #def SVD(configureFile, testDataFile, trainDataFile, modelSaveFile):
  27. def SVD(configureFile, trainDataFile, modelSaveFile):
  28. #get the configure
  29. fi = open(configureFile, 'r')
  30. line = fi.readline()
  31. arr = line.split()
  32. averageScore = float(arr[0].strip())
  33. userNum = int(arr[1].strip())
  34. itemNum = int(arr[2].strip())
  35. factorNum = int(arr[3].strip())
  36. learnRate = float(arr[4].strip())
  37. regularization = float(arr[5].strip())
  38. fi.close()
  39. bi = [0.0 for i in range(itemNum)]
  40. bu = [0.0 for i in range(userNum)]
  41. temp = math.sqrt(factorNum)
  42. qi = [[(0.1 * random.random() / temp) for j in range(factorNum)] for i in range(itemNum)]
  43. pu = [[(0.1 * random.random() / temp) for j in range(factorNum)] for i in range(userNum)]
  44. print("initialization end\nstart training\n")
  45. #train model
  46. preRmse = 1000000.0
  47. for step in range(5):
  48. fi = open(trainDataFile, 'r')
  49. for line in fi:
  50. arr = line.split()
  51. uid = int(arr[0].strip()) - 1
  52. iid = int(arr[1].strip()) - 1
  53. score = int(arr[2].strip())
  54. prediction = PredictScore(averageScore, bu[uid], bi[iid], pu[uid], qi[iid])
  55. eui = score - prediction
  56. #update parameters
  57. bu[uid] += learnRate * (eui - regularization * bu[uid])
  58. bi[iid] += learnRate * (eui - regularization * bi[iid])
  59. for k in range(factorNum):
  60. temp = pu[uid][k] #attention here, must save the value of pu before updating
  61. pu[uid][k] += learnRate * (eui * qi[iid][k] - regularization * pu[uid][k])
  62. qi[iid][k] += learnRate * (eui * temp - regularization * qi[iid][k])
  63. fi.close()
  64. #learnRate *= 0.9
  65. #curRmse = Validate(testDataFile, averageScore, bu, bi, pu, qi)
  66. #print("test_RMSE in step %d: %f" %(step, curRmse))
  67. #if curRmse >= preRmse:
  68. # break
  69. #else:
  70. # preRmse = curRmse
  71. #write the model to files
  72. fo = file(modelSaveFile, 'wb')
  73. pickle.dump(bu, fo, True)
  74. pickle.dump(bi, fo, True)
  75. pickle.dump(qi, fo, True)
  76. pickle.dump(pu, fo, True)
  77. fo.close()
  78. print("model generation over")
  79. #validate the model
  80. def Validate(testDataFile, av, bu, bi, pu, qi):
  81. cnt = 0
  82. rmse = 0.0
  83. fi = open(testDataFile, 'r')
  84. for line in fi:
  85. cnt += 1
  86. arr = line.split()
  87. uid = int(arr[0].strip()) - 1
  88. iid = int(arr[1].strip()) - 1
  89. pScore = PredictScore(av, bu[uid], bi[iid], pu[uid], qi[iid])
  90. tScore = int(arr[2].strip())
  91. rmse += (tScore - pScore) * (tScore - pScore)
  92. fi.close()
  93. return math.sqrt(rmse / cnt)
  94. #use the model to make predict
  95. def Predict(configureFile, modelSaveFile, testDataFile, resultSaveFile):
  96. #get parameter
  97. fi = open(configureFile, 'r')
  98. line = fi.readline()
  99. arr = line.split()
  100. averageScore = float(arr[0].strip())
  101. fi.close()
  102. #get model
  103. fi = file(modelSaveFile, 'rb')
  104. bu = pickle.load(fi)
  105. bi = pickle.load(fi)
  106. qi = pickle.load(fi)
  107. pu = pickle.load(fi)
  108. fi.close()
  109. #predict
  110. fi = open(testDataFile, 'r')
  111. fo = open(resultSaveFile, 'w')
  112. for line in fi:
  113. arr = line.split()
  114. uid = int(arr[0].strip()) - 1
  115. iid = int(arr[1].strip()) - 1
  116. pScore = PredictScore(averageScore, bu[uid], bi[iid], pu[uid], qi[iid])
  117. fo.write("%f\n" %pScore)
  118. fi.close()
  119. fo.close()
  120. print("predict over")
  121. if __name__ == '__main__':
  122. configureFile = 'svd.conf'
  123. trainDataFile = 'ml_data\\smallMatrix.txt'
  124. testDataFile = 'ml_data\\smallPredictionMatrix.txt'
  125. modelSaveFile = 'svd_model.pkl'
  126. resultSaveFile = 'prediction.txt'
  127. #print("%f" %Average("ua.base"))
  128. SVD(configureFile, trainDataFile, modelSaveFile)
  129. Predict(configureFile, modelSaveFile, testDataFile, resultSaveFile)


4、数据后处理

预测结果作为一列输出到一个单独的文件,按照百度的要求需要把结果插入到预测集的最后一列,用python处理一下就好

  1. fp1 = open('predict.txt')
  2. fp2 = open('prediction.txt')
  3. fp_out = open('file3.txt', 'w')
  4. for line1, line2 in zip(fp1, fp2):
  5. line1 = line1.strip()
  6. line2 = line2.strip()
  7. fp_out.write('{0}\t{1}\n'.format(line1, line2))

最终我们就得到了可以提交到百度云平台上面进行评价的文件,格式如下:

7245481	794171	3.879440
7245481	381060	4.028262
7245481	776002	4.152251
7245481	980705	3.986217
7245481	354292	3.758884
7245481	738735	3.925804
7245481	624561	3.880905
7245481	985808	3.776078
7245481	378349	3.902128
7245481	778269	3.892242
7245481	242057	3.871258
7245481	648898	3.861340
7245481	171218	3.696469
7245481	897136	3.834176
7245481	572785	3.917795
7245481	518661	3.835075
7245481	544840	3.873519
7245481	131620	3.725185
7245481	600353	3.899684
7245481	865019	3.878535
..........................
..........................
..........................

评价结果就是博文最开始的那张图了。


5、改进和思考

显然我们还能够让RMSE值再小一些,其实一般来说svd在训练的时候还需要有一个测试数据来验证训练的好坏,但百度没有给测试数据,这里我们也没弄,如果有测试数据训练的效果可能会好一些。同时在训练时迭代次数的选择也有技巧,选择太少或太多效果都可能不好,需要自己把握,我们这里只迭代了五次显然不够。svd.conf里面最后三个参数的选择应该还存在技巧。也许还存在其他一些改进的方法,例如考虑到用户之间的关系这些,不过那个处理起来就有点复杂了,任务二貌似就要考虑到这一点。

总的来说,利用SVD仅仅迭代五次就能有这样的结果确实让人惊讶,想法简单但结果却不错,看来简单的并不意外着是不好,一些问题的完美解决往往蕴含在简单之中。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/714000
推荐阅读
相关标签
  

闽ICP备14008679号