美文网首页推荐系统研究专区
论文笔记 : Dual Neural Personalized

论文笔记 : Dual Neural Personalized

作者: 阿瑟_TJRS | 来源:发表于2020-02-23 17:44 被阅读0次

    本文是自己在推荐系统研究中研读的论文翻译及解读,原文:Dual Neural Personalized Ranking

    • WWW2019会议论文
    • 本篇笔记为本人原创,如需转载引用,请务必在文中附上原链接及相应说明,包括作者信息(阿瑟)
    • 本篇笔记非标准译文,其中包含了笔者自己对问题的部分理解,仅供参考,欢迎学习交流

    背景

    隐式反馈数据是推荐中常见的数据类型,但是由于其固有的稀疏和单一类(one-class 0/1 )特性,很难从中完整发现有效的用户/物品特征。

    文中提到:现有的针对隐式反馈的推荐模型往往存在数据稀疏问题,通常使用矩阵分解获取潜在用户/物品表示;此外,隐式反馈只提供了已知的正向数据,而未知反馈是模糊的(即数据模糊,不确定是正还是负例)。因此,有必要区分负反馈和未知反馈。关于隐式反馈,可以看https://www.jianshu.com/p/d8173f29e4f8

    本文作者提出DualNPR(双NPR) ,以统一的形式实现对用户和物品侧的逐对排序(pairwise ranking 两个PR)。

    本文主要的创新点包括:

    1. DualNPR利用用户和物品的成对排名发现用户和物品之间的真实相关性,缓解了数据稀疏问题。 不需要额外的辅助信息,仅需要用户-物品交互矩阵。
    2. 其基于深度矩阵分解Deep Matrix Factorization来捕获用户/物品表示的可变性。特别是,它选择原始用户/物品向量作为输入,学习潜在用户/物品表示。
    3. 使用动态负采样方法提升了推荐效果。

    相关知识

    推荐中的排序最经典的要数BPR(Bayesian Personalized Ranking):

    BPR

    BPR算法中,将任意用户u对应的物品进行标记,如果用户u在同时有物品i和j的时候点击了i,那么就得到了一个三元组<u,i,j>,它表示对用户u来说,i的排序要比j靠前。

    基于贝叶斯,BPR有两个假设:一、每个用户之间的偏好行为相互独立,即用户u在商品i和j之间的偏好和其他用户无关; 二、同一用户对不同物品的偏序相互独立,也就是用户u在商品i和j之间的偏好和其他的商品无关。为了便于表述,我们用>_u符号表示用户u的偏好,<u,i,j>可以表示为:i>_uj

    在排序关系的基础上,BPR的优化目标是最大化后验概率p(\theta| i>_uj) \propto p(i>_uj | \theta)p(\theta)
    p(i>_uj | \theta)=\sigma(\hat{r}_{u,i}-\hat{r}_{u,j})
    省略部分推导 具体的总结可见:https://www.cnblogs.com/pinard/p/9128682.html
    在实际模型中,对应到相应的Loss:

    其中为sigmoid函数,上式即为常见的MF-BPR模型
    NPR

    那么所谓的NPR的概念则是在BPR的基础上,加上神经网络,对

    对于模型输入,通过embedding矩阵 ,这些参数用来转换得到用户和物品的向量表示,是模型训练的目标参数 对于模型预测而言,即在原来的基础上加上非线形操作

    ,而具体的目标函数与上面BPR所列相同,整个过程类似于Deep Matrix Factorization,虽然NPR相较于BPR,效果有很大的提升,但它并没有解决以下问题:

    (1)物品侧三元组也是一个有用的训练资源,NPR并没有利用
    (2)更广义的DMF可以用来表示潜在的用户/物品向量,
    (3)负采样是学习BPR及其变体的关键组成部分之一,而NPR并没有进行讨论/改进 这一点在论文中有点牵强

    DualNPR 模型设计


    核心思想就是双侧设计,同时对用户侧和物品侧的排序关系进行考虑,围绕这个思想,作者进行了一下设计:

    输入层设计

    对于用户和物品采用one-hot编码,其实应该叫multi-hot编码

    对于例子 用户u_2比起item_1更喜欢item_3,有7个用户,5个物品的话,u_2,i_1,i_3表示为:[0,0,\mathbf{1},1,0], [0,0,1,0,1,0,0], [0,\mathbf{1},0,1,0,1,1]

    相应的形式化表示为: 该部分表示成为用户/物品的raw vector表示,为了方便后续模型的计算处理,对两种不同维度的向量需要做填充操作
    Embedding

    在NPR和DMF的基础上,将经过多层隐含层的处理,模型中采用了共享权重的设计,可以加速训练,但是否有利于提高模型效果,原文并未给出解释

    Scoring Layer

    具体的评分函数则比较简单,有多种设计方式:

    而双层设计的思想则体现在模型的输出上,包含两个输出: 那么相应的Loss对应如下,包含用户侧误差项和物品侧误差项:

    具体模型使用/预测的时候,只用计算即可

    模型训练

    动态负采样 Dynamic Negative Sampling

    模型训练中所需数据为三元组形式<u,i,j>,<i,u,v>,需要通过负采样获取负例,常见做法是从未交互过的物品/用户中等概率选取一定数量的样本作为负样本,本文提出使用动态负采样,对负例计算其排序重要程度,在此基础上计算其被采样概率,使得同一三元组中的正负样例差异增大,加快训练提升效果。

    该部分细节仍在学习理解中,后续更新补充 整体流程如下:

    实验结果

    部分实验结果如下:


    相关文章

      网友评论

        本文标题:论文笔记 : Dual Neural Personalized

        本文链接:https://www.haomeiwen.com/subject/mmmxqhtx.html