美文网首页
坠入深渊的传统之发展——FM、FFM、GBDT+LR

坠入深渊的传统之发展——FM、FFM、GBDT+LR

作者: 金色暗影 | 来源:发表于2020-08-30 22:39 被阅读0次
我很好奇

如果我们将深度学习之前的算法称之为传统算法,那么毫无疑问,回顾这几十年各类算法的发展,基本都是一个从简到繁的过程,从最开始的弱数学,演变为越来越多的数学工具加入其中。在这一点上,和物理学很像,我们高中时学的物理很少涉及特别复杂的数学运算,但是大学时学的就已经融入各种数学公式了...于是乎,推荐领域在引入深度学习之前的发展路线,大抵也是类似的...

FM模型

正如上一篇文章说的,逻辑回归作为一个简单好用的模型,优点很多,但是缺点也很明显,它的表达能力不够强,因为它无法进行特征交叉和特征筛选这些高级操作,这样,有时候不仅会造成信息的损失,甚至可能会导致得出错误的结论。一个著名的例子就是“辛普森悖论”。

辛普森悖论

在对样本集合进行分组研究的时候,在分组比较中占有优势的一方,在总评中有时反而是失势的一方,这种有悖常理的现象,被称之为“辛普森悖论”。


pixiv 250米长的办公桌

很多人知道P站吧,不是那个黄色网站哈,是那个日本年轻人最想加入的公司pixiv,它的付费会员的图片排序里有三个选项:男性最受欢迎,女性最受欢迎和全站最受欢迎,且看下面两个表中的数据:

表1: 男性用户

图片 点击 曝光 点击率
图片A 8 530 1.51%
图片B 51 1520 3.36%

表2:女性用户

图片 点击 曝光 点击率
图片A 201 2510 8.01%
图片B 92 1010 9.11%

容易看出,不论是男性用户还是女性用户,对图片B的点击率都高于A,显然,不管是点击哪个按钮,图片B都应该排在图片A的前面。
事实真的如此吗?okay,让我们忽略性别这个维度,来看一下全站的数据:

表3: 全站数据

图片 点击 曝光 点击率
图片A 209 3040 6.88%
图片B 143 2530 5.65%

我的天,图片A的点击率居然比图片B高了,如果按照这个排序,显然会跟之前分组的排序截然不同,这就是著名的“辛普森悖论”。

在上面的例子中,分组实验相当于使用“性别”+“item id”的组合特征计算点击率,而汇总实验则使用“item id”这一单一特征计算点击率。汇总实验对高危特征进行了合并,这造成了大量有效信息的损失,因此无法正确刻画数据模式。

逻辑回归只是简单的对单一特征进行简单的加权,很难自动进行特征交叉生成高维组合特征,因此表达能力较弱,以至于可能得出“辛普森悖论”这样的错误结论,于是改造LR模型可谓是迫在眉睫。

POLY2

既然LR模型无法自动的进行特征交叉,那咱就手动组合特征呗,然而这个手动组合特征的工作即时对于有颇有经验的运营也颇为棘手,人工的方法无疑是低效的,而且人的经验也具有局限性。就这?显然,对于算法工程师来说这不是个问题,人工组组不来,那就用“暴力”组合的方式来对特征进行组合不就好了嘛!这就是POLY2模型,它的数学形式如下:
POLY2(w,x) = \sum^n_{j_1=1}\sum^n_{j_2=j_1+1}w_{h(j_1,j_2)}x_{j_1}x_{j_2}
从公式容易看出,改模型对所有特征进行了两两交叉,并对所有的特征组合赋予权重w_{h(j_1,j_2)} .
POLY2通过暴力组合特征的方式,在一定程度上解决了特征组合的问题,其训练方式与逻辑回归并无区别,便于工程上的兼容,但是它存在两大缺陷:
1.互联网上的类别数据往往采用one-hot编码,因此特征向量十分稀疏,这种无选择的暴力组合无疑特征稀上加稀,导致大部分交叉特征的权重缺乏有效的训练数据进行训练,模型无法收敛。
2.权重参数数量由n增加到n^2,极大增加了训练复杂度。

sos团

FM

为了解决FM模型的缺陷,2010年,Rendle提出了FM模型,它在POLY2公式的基础上做了点微小的改造,以下是其数学形式:
FM(w,x) =w_0 + \sum_{i=1}^n w_ix_i + \sum^n_{j_1=1}\sum^n_{j_2=j_1+1}(w_{j_1}·w_{j_2})x_{j_1}x_{j_2}
哈哈,它巧妙的将单一权重w_{h(j_1,j_2)}换成了向量内积w_{j_1}·w_{j_2} ,这简直就和矩阵分解中用隐向量代表user和item的做法异曲同工呀!! 与此同时,FM把POLY2模型n^2 级别的参数个数减少到了nk (k为特征维度,n>>k),极大的降低了训练开销。不仅如此,隐向量的引入,对解决数据稀疏问题也很有帮助,比如对于(a,b)这样的组合特征的权重,在POLY2中只有(a,b)同时出现在一个训练样本中时才能得到训练,但是在FM中能在类似(a,c),(b,d) 这样的特征组合中进行学习,这大幅降低了模型对数据稀疏性的要求,甚至就算从未出现过(a,b)这样的样本,它的权重同样因为其他含有a,b的组合被学习到了,这真是太棒了。相比于POLY2,FM虽然丢失了某些特征组合的精度,但是泛化能力得到极大的提高。
在工程方面,FM不失实时性和灵活性,相对于后来用的深度学习模型更加容易部署和线上服务。

FFM

FFM在FM的基础上引入了特征域感知的概念,使模型的表达能力变得更强,其数学形式如下:
FFM(w,x) =w_0 + \sum_{i=1}^n w_ix_i + \sum^n_{j_1=1}\sum^n_{j_2=j_1+1}(w_{j_1,f_2}·w_{j_2,f_1})x_{j_1}x_{j_2}
观察公式,不难发现,它与FM的区别在于隐向量由原来的w_{j_1} 变成了w_{j_1,f_2},而这个f 实际上就是特征域的特征。比如说,当x_{j_1}特征和x_{j_2}特征进行交叉时,会将x_{j_1}特征与x_{j_2}的特征域特征f_2的特征x_{j_1,f_2}x_{j_2}特征与与x_{j_1}的特征域特征f_1的特征w_{j_2,f_1}进行交叉。
噗,这样说起来特别的迷糊....还是举个具体的例子吧......
比如咱是在做游戏的推荐,现在我们有这样一个样本:

游戏名 厂商 类型 价格
ICEY 心动网络 Steam移植 18

每个特征类型作为一个特征域,于是这里有4个特征域:

对应Field 编个Index
游戏名 f1 1
厂商 f2 2
类型 f3 3
价格 f4 4

实际的值呢对应着4中特征:

对应的特征值 编个Index
ICEY x1 a
心动网络 x2 b
Steam移植 x3 c
18 x4 d

下面,我们对这四种特征进行两两的FFM交叉就是:
w_{a,2}·w_{b,1}·x_1·x_2 + w_{a,3}·w_{c,1}·x_1·x_3 + w_{a,4}·w_{d,1}·x_1·x_4 + w_{b,3}·w_{c,2}·x_2·x_3 + w_{b,4}·w_{d,2}·x_2·x_4 + w_{c,4}·w_{d,3}·x_3·x_4
相当于,划分为多少个特征域,相应就有多少个隐向量。在FFM训练过程中,需要学习n个特征在f个域上的k维隐向量,参数个数就是nfk个,因为二次项并不能像FM那样进行简化,因此其复杂度就是kn^2 .也就是说,为了引入更多有价值的信息,FFM的计算复杂度从FM的kn上升到了kn^2,因此在实际工程中用到的话,其模型效果和工程投入之间需要权衡。

GBDT+LR模型

正如前文所言,FFM的计算复杂度已经相当的高了,如果再增加3个特征的交叉的话复杂度就实在太高了,对于更高维的特征组合无能为力。于是就需要通过其他方式来处理高维特征组合的问题。于是Facebook在2014年提出了GBDT+LR的解决方案。

那么GBDT+LR到底做了些什么呢?简言之,就是利用GBDT自动进行特征的筛选和组合,进而生成新的离散特征向量,再将其作为LR模型的输入来预估CTR。而其中GBDT和LR实际上是独立的两部分,训练也是分开训练的,因此不存在如何将LR的梯度回传到GBDT这类的复杂问题,鉴于上篇文章我们已经介绍过LR了,这里主要介绍一下GBDT是个什么东西。

GBDT的基本结构是决策树组成的树林,学习方式是梯度提升。

GBDT的基本结构
作为集成模型,它预测的方式是将所有的子树结果加起来:
GBDT+LR

上图,我们看GBDT这一部分,列举了n颗子树,每颗子树有一些叶子节点,输入一个训练样本后,它会先后落入各个子树的叶子节点,比如子树1的第1个节点,那它的特征向量就是[1,0,0] ,同理子树2是[0,0,1,0] ... 最后把所有子树的向量串连起来就得到了样本的特征向量。

思考一下GBDT的结构,不难看出,决策树的深度决定了特征交叉的阶数。如果决策树的深度为4,这通过3次节点分裂,最终的叶子节点实际上是进行三阶特征组合的结果,如此强的特征组合能力显然是FM系列模型所不具备的。但是正如上面提到的,GBDT可以不断生成树从而无限逼近,因此它很容易过拟合,并且这种特征转换方式损失了大量特征的数值信息,因此并不能简单的说GBDT的特征交叉能力强它就比FFM牛逼。在模型的选择和条是上,永远是多种因素共同作用的结果。

搞过深度学习的人,又没有发现...这个用GBDT生成特征向量的方式和Embedding十分像...都是利用一个模型来自动的提取特征...这也印证了推荐系统的逐渐使用深度学习的发展趋势~

传统已经陷入深渊,时代需要寻求新的发展。
下一篇我们开始探讨深度学习的应用了...

参考资料

  1. 王喆的《深度学习推荐系统》
  2. 部分图片来自google图片搜索没考究其来源,侵删...

相关文章

  • 坠入深渊的传统之发展——FM、FFM、GBDT+LR

    如果我们将深度学习之前的算法称之为传统算法,那么毫无疑问,回顾这几十年各类算法的发展,基本都是一个从简到繁的过程,...

  • FM、FFM

    FM(Factorization Machines) FM主要目标是:解决数据稀疏的情况下,特征怎样组合的问题。 ...

  • FFM的原理介绍及实现

    一.FFM原理介绍 FFM(Field-aware Factorization Machine)是对FM的改进,我...

  • FM与FFM

    FM算法旨在解决稀疏数据下的特征组合问题。 多项式模型的特征组合要求两个特征都是非零的,但是在实际工程中的稀疏数据...

  • FM、FFM、DeepFM

    1. CTR预估综述 点击率(Click through rate)是点击特定链接的用户与查看页面,电子邮件或广告...

  • 推荐系统学习过程中看到的博客和文章

    FM、FFM与DeepFM https://www.hrwhisper.me/machine-learning-f...

  • FM&FFM

    参考:http://www.52caml.com/head_first_ml/ml-chapter9-factor...

  • 072 FM&FFM

    FM和SVM多项式核差异 SVM多项式核函数 上式中可以看出多项式核起到对特征交叉的作用,但是当样本中存在大量的稀...

  • 转《FM,FFM,DeepFM》

    本文仅为记录学习FM、FFM、DeepFM过程中的一些理解,并不会涉及太多公式细节推导,细节方面可以参考 深入FF...

  • 坠入深渊

    当灵魂坠入深渊, 感受不到爱与生命的气息, 周围都是无尽的黑暗, 我蜷缩在角落里呼气, 微微能听见自己还活着的声音...

网友评论

      本文标题:坠入深渊的传统之发展——FM、FFM、GBDT+LR

      本文链接:https://www.haomeiwen.com/subject/hmjglktx.html