美文网首页
[PML 33] C5S1 基于模型的推荐系统 Model-b

[PML 33] C5S1 基于模型的推荐系统 Model-b

作者: 数科每日 | 来源:发表于2022-02-28 11:01 被阅读0次

    在第四章, 我们没有使用到机器学习。 虽然也有预测, 但是它是基于启发式算法的, 经过统计就可以得到结果, 没有优化的的过程。 本章会开始讨论基于机器学习的推荐算法。 我们成为基于模型的推荐算法 model-based。 我们可以把任务描述成, 预测用户u 和物品 i 的交互 (购买,点击, 排序)。

    f(u, i) \rightarrow y

    从表面上看,解决这样的预测任务似乎与回归或分类场景没有什么不同:我们可能天真地想象收集一些适当的用户或商品特征,并应用已经成熟的技术。然而,正如我们在第 4 章开始讨论的那样,这个问题的一些特点会导致传统的回归和分类算法无效,它要求我们探索专门用于捕获交互数据的新方法。具体而言:

    • 我们会不在讨论Feature,而是直接使用基础的历史交互数据。 因为一方面是很难收集到有用的特征, 另外一方面我们也很难判读出来有哪些潜在的特征使我们需要的。

    • 这里的模型的参数不再与Feature 相关, 而是直接和物品或者用户自身相关。

    • 我们讲介绍 latent spaces, 这是模型自动发现的隐形尺度, 不需要我们解释,我们其实也无法解释。

    我们对推荐系统的讨论将构成我们在本书其余部分中开发的许多模型的基础。尽管在本章中,我们将纯粹基于交互历史构建预测模型,但稍后我们将展示如何通过合并特征(第 6 章)和时间信息(第 7 章)来扩展类似的模型。后来,随着我们进一步开发基于文本(第 8 章)和图像(第 9 章)的个性化模型,这种通过latent spaces建模用户的概念将重复出现。

    与“基于内存”的推荐方法相比,基于模型的方法寻求学习用户和项目的参数化表示,以便可以根据学习到的参数进行推荐。基于模型的方法通常是有监督学习,目标是尽可能准确地预测评级、购买、点击等。

    应该选择那个类型的推荐模型?

    在考虑选择 Memory Base 的模型还是 Model Base 的模型的时候, 我们可以考虑他们的一些优缺点:

    • 训练和推理复杂度: Model-based 一般需要离线训练, 成本高, 但是模型训练完以后,推理速度很快。 想法的, Memory-based 的模型一般不需要训练,但是推理的时候很消耗算力。

    • 可解释性: Model-based 是盒子, 很难解释。 Memory-based 对可解释性比较友好。

    • 准确性: Model-based 一般都会更好, 因为训练的时候, 可以直接针对 error 进行优化, 但是这并不意味着最终效果就会很好, 因为我们定义的 Error 目标,未必就是让用户满意的目标。

    Netflix 的奖励

    2006 年,Netflix 发布了一个包含 100,000,000 部电影评分的数据集(涵盖 17,770 部电影和大约 480,000 名用户)。他们的数据集完全采用了第 4.1 节中描述的形式,即它纯粹由(用户、项目、评级、时间戳)元组组成。与数据集相关的是一场竞赛 (Bennett, James, Lanning, Stan, et al. 2007. The Netflix prize. In: Proceedings of the KDD Cup and Workshop.),如果与 Netflix 的现有解决方案相比,将 RMSE(在保留评级的测试集上)降低了 10%, 那么第一个这样做的团队将赢得 1,000,000 美元的奖金。

    这场比赛的历史本身就很有趣。一些早期的领先者联手开发了 ensemble approaches,获胜的团队的性能差距非常小。比赛还引发了围绕此类高调比赛价值的更广泛讨论,以及缩小均方误差(Mean Squared Error)是否真的能改善推荐的质疑。在竞争数据去匿名化后,这也导致了针对 Netflix 的诉讼(Narayanan 和 Shmatikov,2006 年)。最后的问题是,复杂模型是否就能实现最佳竞争性能? 它们具有许多复杂的、相互作用的和精心调优的组件,而且训练成本高昂。 但是这些模型真的可以部署么。

    除了奖项本身的细节之外,数据集和备受瞩目的竞争引发了对推荐系统的大量研究,尤其是评分预测的具体设置。特别是,获胜的方法:基于矩阵分解的方案。

    相关文章

      网友评论

          本文标题:[PML 33] C5S1 基于模型的推荐系统 Model-b

          本文链接:https://www.haomeiwen.com/subject/ezlhrrtx.html