美文网首页
聊聊因子分解机(FM)

聊聊因子分解机(FM)

作者: SoSurprise | 来源:发表于2020-01-08 17:17 被阅读0次

说到FM先说一个叫交叉特征的事,因为特征都是相互独立的,我们想要找到一些组合特征,只能两两交叉相乘,所以我们在线性模型加一个多项式
\hat y = f(\vec x) = w_0 + \sum_{i = 1}^{n}w_ix_i + \sum_{0 < i < j <= n}w_{i, j}x_ix_j.
这是不是看起来就是一个SVM模型:核函数选择为二阶多项式核
看起来很完美,但是我们的特征都是独热编码(OneHot),所以x_ix_j的结果大多数情况下就是0,这样的话后面这个多项式就没法学习了,就算可以学习,如果出现不是0的情况就会出现问题,泛化能力很差。
因子分解机(FM)我们的主角就是解决这个问题:
FM 模型的解决办法是为每个维度的特征( x_i )学习一个表征向量( v_i ,其实可以理解为是特征 ID 的 embedding 向量)。而后将 x_ix_j 的乘积的权重设定为各自表征向量的点积。
\hat y = f(\vec x) = w_0 + \sum_{i = 1}^{n}w_ix_i + \sum_{0 < i < j <= n}\langle \vec v_i, \vec v_j\rangle x_ix_j.
中间的推倒过程在后面。简化结果:
\hat y = f(\vec x) = w_0 + \sum_{i = 1}^{n}w_ix_i + \frac{1}{2}\sum_{f= 1}^{k}((\sum_{i=1}^{n} \vec v_{i,f} x_i)^2-\sum_{i=1}^{n}\vec v_{i,f}^2 x_i^2)
这里很容易看到没有了特征相乘了,接下来说说效率问题;
考虑到 FM 模型会对特征进行二阶组合,在有 n 个原始特征时,交叉特征就会有 \frac{n ^ 2 - n}{2} 个。因此,如果不做任何优化,FM 模型的复杂度会是 O(n^2) ,具体来说是 O(kn^2) (其中 k 是表征向量的长度)。在特征规模非常大的场景中,这是不可接受的。
那么问题来了,是否有办法将复杂度降低到 O(kn) 呢?答案是可以的,我们来看针对特征交叉项的一系列变换。

\begin{aligned} \sum_{0 < i < j <= n}\langle \vec v_i, \vec v_j\rangle x_ix_j &{} = \sum_{i = 1}^{n - 1}\sum_{j = i + 1}^{n} \langle \vec v_i, \vec v_j\rangle x_ix_j \\ &{} = \frac{1}{2}\sum_{i = 1}^{n}\sum_{j = 1}^{n}\langle \vec v_i, \vec v_j\rangle x_ix_j - \frac{1}{2}\sum_{i = 1}^{n}\langle \vec v_i, \vec v_i\rangle x_ix_i \\ &{} = \frac{1}{2}\biggl(\sum_{i = 1}^{n}\sum_{j = 1}^{n}\sum_{d = 1}^{k}\vec v_{i, d}\vec v_{j, d}x_ix_j - \sum_{i = 1}^{n}\sum_{d = 1}^{k}\vec v_{i, d}^2x_i^2\biggr) \\ &{} = \frac{1}{2}\sum_{d = 1}^{k}\biggl(\sum_{i = 1}^{n}\sum_{j = 1}^{n}\vec v_{i, d}\vec v_{j, d}x_ix_j - \sum_{i = 1}^{n}\vec v_{i, d}^2x_i^2\biggr) \\ &{} = \frac{1}{2}\sum_{d = 1}^{k}\biggl(\Bigl(\sum_{i = 1}^{n}\vec v_{i, d}x_i\Bigr)\Bigl(\sum_{j = 1}^{n}\vec v_{j, d}x_j\Bigr) - \sum_{i = 1}^{n}\vec v_{i, d}^2x_i^2\biggr) \\ &{} = \frac{1}{2}\sum_{d = 1}^{k}\biggl(\Bigl(\sum_{i = 1}^{n}\vec v_{i, d}x_i\Bigr)^2 - \sum_{i = 1}^{n}\vec v_{i, d}^2x_i^2\biggr). \end{aligned}

等式第一行是一个平凡的变换,很容易理解。

等式第二行修改了求和符号的范围。原本的求和符号中有 \frac{n ^ 2 - n}{2} 项;变换之后第一项中的求和符号有 n^2 项,第二项中的求和符号有 n 项。因此两式恰好相等。

等式第三行是对向量内积的展开,很容易理解。

等式第四行是运用了加法的结合律,将 \sum_{d = 1}^{k} 抽到外面,这步容易理解。

等式第五行是连续两次逆向使用了乘法对加法的分配率(提取公因子),这一步可能稍微难理解一些。简便起见,我们将 \vec v_{i, d}x_i 记作 a_i ;将 \vec v_{j, d}x_j 记作 a_j 。则变换前的公式记作 \sum_{i = 1}^{n}\sum_{j = 1}^{n}a_ia_j 。将它展开是:

\begin{aligned} \sum_{i = 1}^{n}\sum_{j = 1}^{n}a_ia_j = {}& a_1a_1 + a_1a_2 + \cdots + a_1a_n + \\ {}& a_2a_1 + a_2a_2 + \cdots + a_2a_n + \\ {}& \cdots + \\ {}& a_na_1 + a_na_2 + \cdots + a_na_n \\ = {}& a_1\bigl(a_1 + a_2 + \cdots + a_n\bigr) + \\ {}& a_2\bigl(a_1 + a_2 + \cdots + a_n\bigr) + \\ {}& \cdots + \\ {}& a_n\bigl(a_1 + a_2 + \cdots + a_n\bigr) \\ = {}& a_1\Bigl(\sum_{j = 1}^{n}a_j\Bigr) + a_2\Bigl(\sum_{j = 1}^{n}a_j\Bigr) + \cdots + a_n\Bigl(\sum_{j = 1}^{n}a_j\Bigr) \\ = {}& \sum_{i = 1}^{n}a_i\sum_{j = 1}^{n}a_j \\ = {}& \Bigl(\sum_{i = 1}^{n}\vec v_{i, d}x_i\Bigr)\Bigl(\sum_{j = 1}^{n}\vec v_{j, d}x_j\Bigr). \end{aligned}
等式第六行也很明显。第五行的结果中的两个求和项仅仅是下标不同,实际上完全是一回事,因此直接平方就好了。

如此一来,FM 的预测公式变成了下面这样

\begin{aligned} \hat y &{} = f(\vec x) \\ &{} = w_0 + \sum_{i = 1}^{n}w_ix_i + \frac{1}{2}\sum_{d = 1}^{k}\biggl(\Bigl(\sum_{i = 1}^{n}\vec v_{i, d}x_i\Bigr)^2 - \sum_{i = 1}^{n}\vec v_{i, d}^2x_i^2\biggr). \end{aligned}

显然,它的复杂度是 O(kn) 。考虑到特征的稀疏性,尽管 n 可能很大,但很多 x_i 都是零。因此其实际复杂度应该是 O(k\bar n) ——其中 \bar n 表示样本不为零的特征维度数量的平均值。

相关文章

  • 聊聊因子分解机(FM)

    说到FM先说一个叫交叉特征的事,因为特征都是相互独立的,我们想要找到一些组合特征,只能两两交叉相乘,所以我们在线性...

  • FM算法

    FM算法(Factorization Machine) 因子分解机(Factorization Machine, ...

  • 推荐系统玩家 之 因子分解机FM(Factorization M

    推荐系统玩家 之 因子分解机FM(Factorization Machines)

  • 推荐算法之—FM

    1、什么是FM算法 FM即Factor Machine,因子分解机 2、为什么需要FM 1)、特征组合是许多机器学...

  • 02-21:FM算法

    FM算法 回头看其实FM算法也是非常简单啊 1、算法原理 因子分解机(Factorization Machine,...

  • FM算法

    因子分解机(Factorization Machine, FM)是由Steffen Rendle提出的一种基于矩阵...

  • FM算法详解(因子分解机)

    什么是FM? FM即Factor Machine,因子分解机。 任意的N×N 实对称矩阵]都有 N 个线性无关的特...

  • 深度学习CTR预估(一)——FM模型numpy和tensorfl

    1、FM的原理 1.1 FM介绍及其优缺点  FM就是因子分解机。通过不同组合不同的特征,解决推荐系统中数据稀疏的...

  • 因子分解机(FM)系列总结

    背景 特征之间是关联的,线性模型中需要人工的特征组合,表达能力受限 one-hot编码带来特征空间暴增,数据稀疏,...

  • FM,稀疏下的艺术

    最近正好处理一些稀疏数据,抽空看了下FM论文,Factorization Machines,因子分解机。在SVM之...

网友评论

      本文标题:聊聊因子分解机(FM)

      本文链接:https://www.haomeiwen.com/subject/fcpsactx.html