美文网首页
隐式矩阵分解的介绍:使用 Sketchfab 数据和 经典 AL

隐式矩阵分解的介绍:使用 Sketchfab 数据和 经典 AL

作者: hwang_zhic | 来源:发表于2019-08-22 18:20 被阅读0次

1. 隐式矩阵分解

本文使用 Sketchfab 数据 和 经典 ALS 优化算法,构造出一个 WRMF 的实战模型

1.1 WRMF 简介

​ 在研究隐式反馈推荐系统时,最好的起点是使用经典论文“ 隐式反馈数据集的协同过滤 ”中概述的模型“。这个模型可以将其称为加权正则化矩阵分解(WRMF),它往往是一个经常使用的名称。该模型具有以下优点:

  • 这个模型具有合理的直观感
  • 具有可扩展性
  • 最重要的是,它很容易调整。超参数比随机梯度下降模型少得多。

超参数(hyperparameters) / 算法参数:
根据经验进行设定,影响到权重 W 和偏置 b 的大小,比如迭代次数、隐藏层的层数、每层神经元的个数、学习速率等

1.1.1 WRMF 的特征

​ 确定隐式反馈的独特特征是至关重要的,因为隐式反馈会阻碍使用那些考虑显式反馈的算法。 以下是论文列出的主要特征:

  1. 没有负面反馈。通过观察用户行为,我们可以推断他们可能喜欢哪些项目,从而选择消费。但是,很难可靠地推断出用户不喜欢哪些项目。例如,没有观看某个节目的用户可能已经这样做了,因为她不喜欢这个节目,或者只是因为她不知道节目或者没有观看节目。这种基本的不对称性并不存在于用户告诉我们他们喜欢什么和不喜欢什么的明确反馈中。它有几个含义。例如,明确的推荐者倾向于关注收集的信息 - 我们知道他们的评级的那些用户 - 项目对 - 这提供了关于用户偏好的平衡图像。因此,通常构成绝大多数数据的剩余用户 - 项目关系被视为“缺失数据”并从分析中省略。隐含反馈这是不可能的,因为只关注收集到的反馈会给我们留下积极的反馈,极大地歪曲了完整的用户档案。因此,至关重要的是要解决丢失的数据,这是预期会发现大多数负面反馈的地方。

  2. 隐性反馈本质上是有噪声的。当我们粗略地跟踪用户行为,我们只能猜测他们的偏好和真实动机。例如,我们可能会查看个人的购买行为,但这并不一定表明该产品的正面观点。该商品可能是作为礼品购买的,也可能是用户对产品感到失望。我们可能会认为电视节目在特定时间出现在某个特定频道,但观众可能已经睡着了。

  3. 显性反馈的数值表示偏好,而隐式反馈的数值表示置信度。基于明确反馈的系统让用户表达他们的偏好水平,例如:星级评分在1(“完全不喜欢”)和5(“非常喜欢”)之间。另一方面,隐式反馈的数值描述了动作的频率,例如,用户观看某个节目的时间,用户购买某个项目的频率等等。较大的值并不表示较高的偏好。例如,最受喜爱的节目可能是用户将仅观看一次的电影,而有一系列用户非常喜欢并且因此每周都在观看。然而,反馈的数值非常有用,因为它告诉我们我们对某一观察的信心。一次性事件可能由与用户偏好无关的各种原因引起。但是,重复发生的事件更有可能反映用户的意见。

  4. 隐式反馈推荐者的评估需要适当的措施。在用户指定数字分数的传统设置中,有明确的元数据,例如均方误差,用于衡量预测的成功。然而,对于隐式模型,我们必须考虑项目的可用性,与其他项目竞争项目,以及重复反馈。例如,如果我们收集关于电视观看的数据,则不清楚如何评估已被观看多次的节目,或如何比较同时开启的两个节目,因此不能同时观看用户。

1.1.2 WRMF 的作用和目的

  1. 将原始观察结果(rui)转换为具有不同解释的两个独立的态度:偏好(pui)和置信水平(cui)。 这更好地反映了数据的性质,对于提高预测准确性至关重要
  2. 一种算法,通过利用变量的代数结构,在线性运行时间内解决所有可能的(n·m)用户项组合。

1.2 显式反馈矩阵分解

​ 显式反馈矩阵分解的损失函数如下:

L _ { e x p } = \sum _ { u , i \in S } \left( r _ { u i } - \mathbf { x } _ { u } ^ { \top } \cdot \mathbf { y } _ { i } \right) ^ { 2 } + \lambda _ { x } \sum _ { u } \left\| \mathbf { x } _ { u } \right\| ^ { 2 } + \lambda _ { y } \sum _ { u } \left\| \mathbf { y } _ { i } \right\| ^ { 2 }

损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。例如在统计学和机器学习中被用于模型的参数估计(parameteric estimation)

  • 参数 rui 是用户项评级矩阵的一个元素

  • x_u ({y}_{i}) 是 用户 u's (项目 i’s) 的潜在的因素

  • S是所有用户项评级的集合

1.3 隐式反馈矩阵分解

隐式反馈矩阵分解的损失函数如下:

L _ { W R M F } = \sum _ { u , i } c _ { u i } \left( p _ { u i } - \mathbf { x } _ { u } ^ { \top } \cdot \mathbf { y } _ { i } \right) ^ { 2 } + \lambda _ { x } \sum _ { u } \left\| \mathbf { x } _ { u } \right\| ^ { 2 } + \lambda _ { y } \sum _ { u } \left\| \mathbf { y } _ { i } \right\| ^ { 2 }

  • 在这里,我们不是对过度元素的总结 S 而是我们整个矩阵

  • 通过隐式反馈,我们不再有评级了(评级可以看成是分数,即 1、2、3、4、5 分)

  • 相反,我们有用户对项目的偏好

  • 在WRMF损失函数中,评级矩阵 rui 已被替换成 Pui

  • 假设如果用户与项目完全交互,那么 Pui = 1,除此之外 Pui = 0

  • 损失函数另一个新术语是 Cui ,称之为置信度矩阵,它粗略地描述了我们对用户 u 确实对项目 i 具有偏好 Pui 的信心。

  • 作者认为的一个置信公式是相互作用的数量是线性的。

  • 如果我们将 dui 视为用户点击网站上某个项目的次数,那么就可以得到以下公式

c _ { u i } = 1 + \alpha d _ { u i }

  • 参数 α 可以通过交叉验证确定
  • 对于 Sketchfab 数据集,只有二进制 “喜欢“,所以 dui ∈ {0 ,1}
  • WRMF没有假设没有与项目交互的用户不喜欢该项目。WRMF 确实假设该用户对该项目具有负偏好,但我们可以通过置信度超参数来选择我们对该假设的信心。

1.4 对 Sketchfab 数据进行实战建模

步骤分为以下几步:

  1. 读取数据
  2. 构建数据矩阵
  3. 构建交叉验证的数据集,分成 n 组的数据
  4. 开始交叉验证,求得项目因子 Pui 和 用户因子 Cui 的数值
  5. 最后调参,计算出什么参数训练效果最好

1.5 实战结果

在最后,可以通过输入模型,得到推荐的其他模型

如:

输入模型:

img

推荐的相似的型号:

img img img img img img

1.6 参考文献

博客:https://www.ethanrosenthal.com/2016/10/19/implicit-mf-part-1/
论文:http://yifanhu.net/PUB/cf.pdf

相关文章

网友评论

      本文标题:隐式矩阵分解的介绍:使用 Sketchfab 数据和 经典 AL

      本文链接:https://www.haomeiwen.com/subject/skeosctx.html