美文网首页
转-SVD在推荐系统中的应用

转-SVD在推荐系统中的应用

作者: 起个名字真的好难啊哈哈 | 来源:发表于2018-03-07 16:48 被阅读0次

    http://blog.csdn.net/syani/article/details/52297093
    mahout中有SVD的推荐策略,今天查了一下资料了解了一下算法原理,本质上是使用SVD方法做特征降维,然后再计算相似度。下面这篇文章写的不错,和大家分享一下。

    转自:http://yanyiwu.com/work/2012/09/10/SVD-application-in-recsys.html

    线性代数相关知识:

    任意一个M*N的矩阵A(M行*N列M>N),可以被写成三个矩阵的乘积:

    1. U:(M行M列的列正交矩阵)

    2. S:(M*N的对角线矩阵,矩阵元素非负)

    3. V:(N*N的正交矩阵的倒置)

    A=U*S*V'(注意矩阵V需要倒置)

    直观地说:

    假设我们有一个矩阵,该矩阵每一列代表一个user,每一行代表一个item。

    [图片上传失败...(image-82f708-1520412554755)]

    如上图,ben,tom….代表user,season n代表item

    矩阵值代表评分(0代表未评分):

    如 ben对season1评分为5,tom对season1 评分为5,tom对season2未评分。

    机器学习和信息检索:

    机器学习的一个最根本也是最有趣的特性是数据压缩概念的相关性。

    如果我们能够从数据中抽取某些有意义的感念,则我们能用更少的比特位来表述这个数据。

    从信息论的角度则是数据之间存在相关性,则有可压缩性。

    SVD就是用来将一个大的矩阵以降低维数的方式进行有损地压缩。

    降维:(相对于机器学习中的PCA)

    下面我们将用一个具体的例子展示svd的具体过程。

    首先是A矩阵。

    <pre style="margin: 0px 0px 24px; padding: 0px; font-weight: 400; box-sizing: border-box; background-color: rgb(240, 240, 240); font-family: Consolas, Inconsolata, Courier, monospace; font-size: 14px; line-height: 22px; color: rgb(0, 0, 0);">`A =

     5     5     0     5
     5     0     3     4
     3     4     0     3
     0     0     5     3
     5     4     4     5
     5     4     5     5` </pre>
    

    (代表上图的评分矩阵)

    使用matlab调用svd函数:

    <pre style="margin: 0px 0px 24px; padding: 0px; font-weight: 400; box-sizing: border-box; background-color: rgb(240, 240, 240); font-family: Consolas, Inconsolata, Courier, monospace; font-size: 14px; line-height: 22px; color: rgb(0, 0, 0);">`[U,S,Vtranspose]=svd(A)

    U =
    -0.4472 -0.5373 -0.0064 -0.5037 -0.3857 -0.3298
    -0.3586 0.2461 0.8622 -0.1458 0.0780 0.2002
    -0.2925 -0.4033 -0.2275 -0.1038 0.4360 0.7065
    -0.2078 0.6700 -0.3951 -0.5888 0.0260 0.0667
    -0.5099 0.0597 -0.1097 0.2869 0.5946 -0.5371
    -0.5316 0.1887 -0.1914 0.5341 -0.5485 0.2429

    S =
    17.7139 0 0 0
    0 6.3917 0 0
    0 0 3.0980 0
    0 0 0 1.3290
    0 0 0 0
    0 0 0 0

    Vtranspose =
    -0.5710 -0.2228 0.6749 0.4109
    -0.4275 -0.5172 -0.6929 0.2637
    -0.3846 0.8246 -0.2532 0.3286
    -0.5859 0.0532 0.0140 -0.8085` </pre>

    分解矩阵之后我们首先需要明白S的意义。

    可以看到S很特别,是个对角线矩阵。

    每个元素非负,而且依次减小,从几何意义上来说,此值和特征向量中的特征值的权重有关。

    [html] view plaincopy

    <embed id="ZeroClipboardMovie_1" src="http://csdnimg.cn/public/highlighter/ZeroClipboard.swf" loop="false" menu="false" quality="best" bgcolor="#ffffff" width="16" height="16" name="ZeroClipboardMovie_1" align="middle" allowscriptaccess="always" allowfullscreen="false" type="application/x-shockwave-flash" pluginspage="http://www.macromedia.com/go/getflashplayer" flashvars="id=1&width=16&height=16" wmode="transparent" style="box-sizing: border-box;">

    1. <span style="font-size:14px;">若想进一步了解<span style="color:#FF0000;"><strong>SVD分解</strong></span>,推荐读下面这篇文章:

    2. <strong>机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用</strong>

    3. http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html</span>

    所以可以取S对角线上前k个元素。

    当k=2时候即将S(6*4)降维成S(2*2)

    同时U(6*6),Vtranspose(4*4)相应地变为 U(6*2),Vtranspose(4*2).

    如下图(图片里的usv矩阵元素值和我自己matlab算出的usv矩阵元素值有些正负不一致,但是本质是相同的):

    [图片上传失败...(image-b66b14-1520412554753)]

    此时我们用降维后的U,S,V来相乘得到A2

    <pre style="margin: 0px 0px 24px; padding: 0px; font-weight: 400; box-sizing: border-box; background-color: rgb(240, 240, 240); font-family: Consolas, Inconsolata, Courier, monospace; font-size: 14px; line-height: 22px; color: rgb(0, 0, 0);">A2=U(1:6,1:2)*S(1:2,1:2)*(V(1:4,1:2))' //matlab语句 </pre>

    <pre style="margin: 0px 0px 24px; padding: 0px; font-weight: 400; box-sizing: border-box; background-color: rgb(240, 240, 240); font-family: Consolas, Inconsolata, Courier, monospace; font-size: 14px; line-height: 22px; color: rgb(0, 0, 0);">`A2 =

    5.2885    5.1627    0.2149    4.4591
    3.2768    1.9021    3.7400    3.8058
    3.5324    3.5479   -0.1332    2.8984
    1.1475   -0.6417    4.9472    2.3846
    5.0727    3.6640    3.7887    5.3130
    5.1086    3.4019    4.6166    5.5822` </pre>
    

    此时我们可以很直观地看出,A2和A很接近,这就是之前说的降维可以看成一种数据的有损压缩。

    接下来我们开始分析该矩阵中数据的相关性

    我们将u的第一列当成x值,第二列当成y值(即u的每一行用一个二维向量表示)

    同理,v的每一行也用一个二维向量表示。

    如下图:

    [图片上传失败...(image-7a84c9-1520412554753)]

    从图中可以看出:

    Season5,Season6特别靠近。Ben和Fred也特别靠近。

    同时我们仔细看一下A矩阵可以发现,A矩阵的第5行向量和第6行向量特别相似,Ben所在的列向量和Fred所在的列向量也特别相似。

    所以,从直观上我们发现,U矩阵和V矩阵可以近似来代表A矩阵,换据话说就是将A矩阵压缩成U矩阵和V矩阵,至于压缩比例得看当时对S矩阵取前k个数的k值是多少。

    到这里,我们已经完成了一半。

    寻找相似用户

    我们假设,现在有个名字叫Bob的新用户,并且已知这个用户对season n的评分向量为:[5 5 0 0 0 5]。(此向量为行向量)

    我们的任务是要对他做出个性化的推荐。

    我们的思路首先是利用新用户的评分向量找出该用户的相似用户。

    [图片上传失败...(image-c7b306-1520412554753)]

    对图中公式不做证明,只需要知道结论:得到一个Bob的二维向量,即知道Bob的坐标。(本质上是特征的降维转换)

    将Bob坐标添加进原来的图中:

    [图片上传失败...(image-f23c97-1520412554753)]

    然后从图中找出和Bob最相似的用户。

    注意,最相似并不是距离最近的用户,这里的相似用余弦相似度计算,即夹角与Bob最小的用户坐标,可以计算出最相似的用户是ben。

    接下来的推荐策略就完全取决于个人选择了。

    这里介绍一个非常简单的推荐策略:

    找出最相似的用户,即ben。

    观察ben的评分向量为:【5 5 3 0 5 5】。

    对比Bob的评分向量:【5 5 0 0 0 5】。

    然后找出ben评分过而Bob未评分的item并排序,即【season 5:5,season 3:3】。

    即推荐给Bob的item依次为 season5 和 season3。

    最后还有一些关于整个推荐思路的可改进的地方:

    1.svd本身就是时间复杂度高的计算过程,如果数据量大的情况恐怕时间消耗无法忍受。不过可以使用梯度下降等机器学习的相关方法来进行近似计算,以减少时间消耗。

    2.相似度计算方法的选择,有多种相似度计算方法,每种都有对应优缺点,对针对不同场景使用最适合的相似度计算方法。

    3.推荐策略:首先是相似用户可以多个,每个由相似度作为权重来共同影响推荐的item的评分。

    相关文章

      网友评论

          本文标题:转-SVD在推荐系统中的应用

          本文链接:https://www.haomeiwen.com/subject/jjtsfftx.html