引言
- 本文论文阅读过程所留笔记,如有错误请指正
- 如引用请注明链接及作者信息,谢谢
- 论文为2008年 ACM recsys会议长文(推荐领域专会,引用量:201)
- Online-Updating Regularized Kernel Matrix Factorization Models for Large-Scale Recommender Systems
Motivation
矩阵分解模型能够实现高质量的评分预测,是推荐中非常重要的模型,其主要缺点在于矩阵分解得到的模型是静态的,一旦完成计算,当有新的物品/新的用户出现的时候,更新用户/物品的特征矩阵非常困难。
New-user problem: 在很多在线系统中,模型训练完成后,用户已经有很多的新的反馈数据了,对于历史数据比较多的用户而言,其用户特征的变化不会很大;但对记录较少的新用户而言,其特征变化会很大;在这种情况下,将新用户的新数据加入到模型中,会产生更好的推荐效果。相似地,还有New-item problem
因此,这篇文章提出将矩阵分解推广到核矩阵分解(Regularized Kernel Matrix Factorization,RKMF).核方法为矩阵分解提供的新思路,能够处理特征向量间的非线性关系。
同时,提出了一个通用的学习RKMF的训练方法,实现在线更新模型的任务,能够处理新用户/物品出现的情况。
RKMF模型
矩阵分解算法中,预测评分的表示形式: 也可以添加上偏置项:核方法的应用:
对两个向量的乘积加上核函数: 常见的核函数包括:线性核函数,多项式,高斯及逻辑核函数(都是非常基础的核函数) 文章中提到的核方法的优点有:使用像逻辑核函数的好处有:预测值自然地限定到了实际的范围,而不必削减,例如 其不可能在最多5星的情况下预测6.2星;
其次,内核可以提供用户和物品向量之间的非线性交互。
最后一个好处是,内核可以把不同的模型组合在一起,间接提高模型效果。
在2008年的研究背景下,这种方法的应用也算比较流行,今天我们的做的大多数改进也是引入新的模型方法进行组合
非负矩阵分解 Non-negative Matrix Factorization
对用户和物品的特征矩阵施加附加约束,要求两个矩阵的所有元素均为非负, 目的是为了消除负相关之间的相互作用,已在某些协同过滤算法中成功应用
对于RKMF的优化方法如下,非常简单:基于梯度下降即可训练,下面重点关注其在线更新算法
在线更新 Online-update
为新用户重新训练其对应的用户特征向量,并保持其他向量不变中。
该算法的出发点是假设从全局角度看,新数据出现前后建立的模型基本相同。 但是,如果用户u是新用户,则其特征可能发生很大变化。
这就是为什么我们完全重新训练该用户的特征向量,而保留其他特征不变的原因,因为我们认为它们已经是最好的猜测。
网友评论