赞
踩
写的有点多,我来做个总结和补充:ALS 通过矩阵分解来降低计算量,但是矩阵分解后的大量特征是未知值,通过交替最小二乘法(也就是先假设user矩阵的特征值,通过梯度下降求解item的特征值;再假定item的特征值,求解user的特征值,来完成交替动作)来求解这些未知值,最终得到rating的结果。
注意:梯度下降是求解最小二乘的方法之一,很多人将最小二乘 与 梯度下降等同,这种理解是错误的。详细可以看看ng的视频和度娘
附赠:知乎答案
小二乘法的目标:求误差的最小平方和,对应有两种:线性和非线性。线性最小二乘的解是closed-form即,而非线性最小二乘没有closed-form,通常用迭代法求解。
迭代法,即在每一步update未知量逐渐逼近解,可以用于各种各样的问题(包括最小二乘),比如求的不是误差的最小平方和而是最小立方和。
梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。高斯-牛顿法是另一种经常用于求解非线性最小二乘的迭代法(一定程度上可视为标准非线性最小二乘求解方法)。
还有一种叫做Levenberg-Marquardt的迭代法用于求解非线性最小二乘问题,就结合了梯度下降和高斯-牛顿法。
所以如果把最小二乘看做是优化问题的话,那么梯度下降是求解方法的一种,是求解线性最小二乘的一种,高斯-牛顿法和Levenberg-Marquardt则能用于求解非线性最小二乘。
具体可参考维基百科( Least squares, Gradient descent, Gauss-Newton algorithm, Levenberg-Marquardt algorithm)
矩阵的奇异值分解 SVD
(特别详细的总结,参考 http://blog.csdn.net/wangzhiqing3/article/details/7446444)
1)低秩近似
2)特征降维
相似度和距离度量
(参考 http://blog.sina.com.cn/s/blog_62b83291010127bf.html)
ALS
交替最小二乘(alternating least squares
)在机器学习中,ALS
指使用交替最小二乘求解的一个协同推荐算法。
每一行代表一个用户(u1,u2,…,u8),
每一列代表一个商品(v1,v2,…,v8),
用户的打分为1-9
分。
这个矩阵只显示了观察到的打分,我们需要推测没有观察到的打分。
ALS
的核心就是这样一个假设:打分矩阵是近似低秩的。换句话说,就是一个m*n
的打分矩阵可以由分解的两个小矩阵U(m*k)
和V(k*n)
的乘积来近似,即 A=UVT,k<=m,n 。这就是ALS
的矩阵分解方法。
这样我们把系统的自由度从O(mn)
降到了O((m+n)k)
。
低维空间的选取。
这个低维空间要能够很好的区分事物,那么就需要一个明确的可量化目标,这就是重构误差。
在ALS
中我们使用 F范数 来量化重构误差,就是每个元素重构误差的平方和。这里存在一个问题,我们只观察到部分打分,A
中的大量未知元是我们想推断的,所以这个重构误差是包含未知数的。
解决方案很简单:只计算已知打分的重构误差。
协同过滤分析用户以及用户相关的产品的相关性,用以识别新的用户-产品相关性。
协同过滤系统需要的唯一信息是用户过去的行为信息,比如对产品的评价信息。
Netflix
收集的用户对电影评价的星星等级数据。通过内积 rij = uiT vj 来预测,另外加入正则化参数 lamda 来预防 过拟合。
偏好:二元变量 ,它表示用户 u
对商品 v
的偏好
信任度:变量 ,它衡量了我们观察到的信任度
1)显示和隐式的异同:
u,v
对2) 交替最小二乘求解:
即固定 ui 求 vi+1 再固定 vi+1 求 ui+1
1
2
3
4
5
6
7
8
9
10
|
import
org.apache.spark.mllib.recommendation.
_<
br
>
//处理训练数据
val
data
=
sc.textFile(
"data/mllib/als/test.data"
)
val
ratings
=
data.map(
_
.split(
','
)
match
{
case
Array(user, item, rate)
=
>
Rating(user.toInt, item.toInt, rate.toDouble)
})
// 使用ALS训练推荐模型
val
rank
=
10
val
numIterations
=
10
val
model
=
ALS.train(ratings, rank, numIterations,
0.01
)
|
ALS
算法实现于org.apache.spark.ml.recommendation.ALS.scala
文件中
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。