本文是自己在推荐系统研究中研读的论文翻译及解读,原文:Dual Neural Personalized Ranking
-
WWW2019会议论文
- 本篇笔记为本人原创,如需转载引用,请务必在文中附上原链接及相应说明,包括作者信息(阿瑟)
- 本篇笔记非标准译文,其中包含了笔者自己对问题的部分理解,仅供参考,欢迎学习交流
背景
隐式反馈数据是推荐中常见的数据类型,但是由于其固有的稀疏和单一类(one-class 0/1 )特性,很难从中完整发现有效的用户/物品特征。
文中提到:现有的针对隐式反馈的推荐模型往往存在数据稀疏问题,通常使用矩阵分解获取潜在用户/物品表示;此外,隐式反馈只提供了已知的正向数据,而未知反馈是模糊的(即数据模糊,不确定是正还是负例)。因此,有必要区分负反馈和未知反馈。关于隐式反馈,可以看https://www.jianshu.com/p/d8173f29e4f8
本文作者提出DualNPR(双NPR) ,以统一的形式实现对用户和物品侧的逐对排序(pairwise ranking 两个PR)。
本文主要的创新点包括:
- DualNPR利用用户和物品的成对排名发现用户和物品之间的真实相关性,缓解了数据稀疏问题。 不需要额外的辅助信息,仅需要用户-物品交互矩阵。
- 其基于深度矩阵分解Deep Matrix Factorization来捕获用户/物品表示的可变性。特别是,它选择原始用户/物品向量作为输入,学习潜在用户/物品表示。
- 使用动态负采样方法提升了推荐效果。
相关知识
推荐中的排序最经典的要数BPR(Bayesian Personalized Ranking):
BPR
BPR算法中,将任意用户u对应的物品进行标记,如果用户u在同时有物品i和j的时候点击了i,那么就得到了一个三元组,它表示对用户u来说,i的排序要比j靠前。
基于贝叶斯,BPR有两个假设:一、每个用户之间的偏好行为相互独立,即用户u在商品i和j之间的偏好和其他用户无关; 二、同一用户对不同物品的偏序相互独立,也就是用户u在商品i和j之间的偏好和其他的商品无关。为了便于表述,我们用符号表示用户u的偏好,
可以表示为:
在排序关系的基础上,BPR的优化目标是最大化后验概率
省略部分推导 具体的总结可见:https://www.cnblogs.com/pinard/p/9128682.html
在实际模型中,对应到相应的Loss:


NPR
那么所谓的NPR的概念则是在BPR的基础上,加上神经网络,对




,而具体的目标函数与上面BPR所列相同,整个过程类似于Deep Matrix Factorization,虽然NPR相较于BPR,效果有很大的提升,但它并没有解决以下问题:
(1)物品侧三元组也是一个有用的训练资源,NPR并没有利用
(2)更广义的DMF可以用来表示潜在的用户/物品向量,
(3)负采样是学习BPR及其变体的关键组成部分之一,而NPR并没有进行讨论/改进 这一点在论文中有点牵强
DualNPR 模型设计

核心思想就是双侧设计,同时对用户侧和物品侧的排序关系进行考虑,围绕这个思想,作者进行了一下设计:
输入层设计
对于用户和物品采用one-hot编码,其实应该叫multi-hot编码,
相应的形式化表示为:对于例子 用户
比起
更喜欢
,有7个用户,5个物品的话,
表示为:



Embedding
在NPR和DMF的基础上,将经过多层隐含层的处理,模型中采用了共享权重的设计,可以加速训练,但是否有利于提高模型效果,原文并未给出解释

Scoring Layer
具体的评分函数则比较简单,有多种设计方式:




具体模型使用/预测的时候,只用计算即可
模型训练
动态负采样 Dynamic Negative Sampling
模型训练中所需数据为三元组形式<u,i,j>,<i,u,v>,需要通过负采样获取负例,常见做法是从未交互过的物品/用户中等概率选取一定数量的样本作为负样本,本文提出使用动态负采样,对负例计算其排序重要程度,在此基础上计算其被采样概率,使得同一三元组中的正负样例差异增大,加快训练提升效果。


实验结果
部分实验结果如下:


网友评论