美文网首页推荐系统研究专区
在线推荐算法研究(1)-Online-Updating Regu

在线推荐算法研究(1)-Online-Updating Regu

作者: 阿瑟_TJRS | 来源:发表于2020-09-18 15:06 被阅读0次

    引言

    • 本文论文阅读过程所留笔记,如有错误请指正
    • 如引用请注明链接及作者信息,谢谢
    • 论文为2008年 ACM recsys会议长文(推荐领域专会,引用量:201)
    • Online-Updating Regularized Kernel Matrix Factorization Models for Large-Scale Recommender Systems

    Motivation

    矩阵分解模型能够实现高质量的评分预测,是推荐中非常重要的模型,其主要缺点在于矩阵分解得到的模型是静态的,一旦完成计算,当有新的物品/新的用户出现的时候,更新用户/物品的特征矩阵非常困难。

    New-user problem: 在很多在线系统中,模型训练完成后,用户已经有很多的新的反馈数据了,对于历史数据比较多的用户而言,其用户特征的变化不会很大;但对记录较少的新用户而言,其特征变化会很大;在这种情况下,将新用户的新数据加入到模型中,会产生更好的推荐效果。相似地,还有New-item problem

    因此,这篇文章提出将矩阵分解推广到核矩阵分解(Regularized Kernel Matrix Factorization,RKMF).核方法为矩阵分解提供的新思路,能够处理特征向量间的非线性关系。

    同时,提出了一个通用的学习RKMF的训练方法,实现在线更新模型的任务,能够处理新用户/物品出现的情况。

    RKMF模型

    矩阵分解算法中,预测评分的表示形式: 也可以添加上偏置项:

    核方法的应用

    对两个向量的乘积加上核函数: 常见的核函数包括:线性核函数,多项式,高斯及逻辑核函数(都是非常基础的核函数) 文章中提到的核方法的优点有:

    使用像逻辑核函数的好处有:预测值自然地限定到了实际的范围,而不必削减,例如 其不可能在最多5星的情况下预测6.2星;
    其次,内核可以提供用户和物品向量之间的非线性交互。
    最后一个好处是,内核可以把不同的模型组合在一起,间接提高模型效果。

    在2008年的研究背景下,这种方法的应用也算比较流行,今天我们的做的大多数改进也是引入新的模型方法进行组合

    非负矩阵分解 Non-negative Matrix Factorization

    对用户和物品的特征矩阵施加附加约束,要求两个矩阵的所有元素均为非负, 目的是为了消除负相关之间的相互作用,已在某些协同过滤算法中成功应用

    对于RKMF的优化方法如下,非常简单:

    基于梯度下降即可训练,下面重点关注其在线更新算法

    在线更新 Online-update


    为新用户重新训练其对应的用户特征向量,并保持其他向量不变中。

    该算法的出发点是假设从全局角度看,新数据出现前后建立的模型基本相同。 但是,如果用户u是新用户,则其特征可能发生很大变化。
    这就是为什么我们完全重新训练该用户的特征向量,而保留其他特征不变的原因,因为我们认为它们已经是最好的猜测。

    相关文章

      网友评论

        本文标题:在线推荐算法研究(1)-Online-Updating Regu

        本文链接:https://www.haomeiwen.com/subject/cpclactx.html