说到FM先说一个叫交叉特征的事,因为特征都是相互独立的,我们想要找到一些组合特征,只能两两交叉相乘,所以我们在线性模型加一个多项式
这是不是看起来就是一个SVM模型:核函数选择为二阶多项式核
看起来很完美,但是我们的特征都是独热编码(OneHot),所以的结果大多数情况下就是0,这样的话后面这个多项式就没法学习了,就算可以学习,如果出现不是0的情况就会出现问题,泛化能力很差。
因子分解机(FM)我们的主角就是解决这个问题:
FM 模型的解决办法是为每个维度的特征( )学习一个表征向量(
,其实可以理解为是特征 ID 的 embedding 向量)。而后将
和
的乘积的权重设定为各自表征向量的点积。
中间的推倒过程在后面。简化结果:
这里很容易看到没有了特征相乘了,接下来说说效率问题;
考虑到 FM 模型会对特征进行二阶组合,在有 个原始特征时,交叉特征就会有
个。因此,如果不做任何优化,FM 模型的复杂度会是
,具体来说是
(其中
是表征向量的长度)。在特征规模非常大的场景中,这是不可接受的。
那么问题来了,是否有办法将复杂度降低到 呢?答案是可以的,我们来看针对特征交叉项的一系列变换。
等式第一行是一个平凡的变换,很容易理解。
等式第二行修改了求和符号的范围。原本的求和符号中有 项;变换之后第一项中的求和符号有
项,第二项中的求和符号有
项。因此两式恰好相等。
等式第三行是对向量内积的展开,很容易理解。
等式第四行是运用了加法的结合律,将 抽到外面,这步容易理解。
等式第五行是连续两次逆向使用了乘法对加法的分配率(提取公因子),这一步可能稍微难理解一些。简便起见,我们将 记作
;将
记作
。则变换前的公式记作
。将它展开是:
等式第六行也很明显。第五行的结果中的两个求和项仅仅是下标不同,实际上完全是一回事,因此直接平方就好了。
如此一来,FM 的预测公式变成了下面这样
显然,它的复杂度是 。考虑到特征的稀疏性,尽管
可能很大,但很多
都是零。因此其实际复杂度应该是
——其中
表示样本不为零的特征维度数量的平均值。
网友评论