本文介绍的论文题目为:《Click-Through Rate Prediction with the User Memory Network》
论文下载地址为:https://arxiv.org/abs/1907.04667
如何利用用户的历史行为信息呢?前面也讲过很多方式,比如最简单的就是对历史行为序列中的物品对应的embedding进行concat或pooling操作,更进阶的如引入attention机制的阿里DIN模型、进一步引进用户兴趣抽取和演进模块的DIEN模型、以及后来的DSIN、BST模型等等。
而本文可能时间比较早,没有提及上述的诸多利用历史行为信息的方式,而仅关注不考虑行为信息的DNN模型,以及使用RNN来处理行为信息的方式上。DNN模型部署简单,而RNN模型可以融入行为信息,提升预测效果,但同时也带来了性能的问题。在兼顾DNN和RNN模型的优点的基础上,本文提出了记忆增强网络—MA-DNN模型,一起来看一下。
1、背景
在CTR预估中,用户历史行为信息是很重要的一类信息,处理用户历史行为信息的很重要的一类方法是使用RNN及其变形结构(如LSTM、GRU等),下图对比了两种模型结构(传统DNN和使用GRU处理历史行为信息):
使用GRU可以提升CTR的预测效果,但是也存在两方面的问题:
1)模型计算复杂:使用GRU结构,对于历史行为序列是串行计算,无论是线下训练还是线上预测,其计算复杂度明显提升。
2)数据准备复杂:数据准备复杂可以由下图进行形象地表示,对于DNN结构,一条日志对应一条数据,而对于GRU结构来说,如对于instance4,我们需要按顺序找到4条对应的日志,才能得到对应的训练数据,这显然是更加复杂的。
可以看到,DNN结构模型简单,线上性能较好,但利用用户历史行为信息能够达到更好的预测效果,那么是否存在一种模型结构,能够和DNN同样简单,同时能够有效利用用户历史行为信息呢?本文就来介绍一种方法,即记忆增强网络—MA-DNN模型。
2、模型介绍
MA-DNN模型的结构如下:
模型结构并不复杂,主要分为两大部分,DNN部分和记忆网络部分。
记忆网络主要存储两个向量mu1和mu0,这两个向量分别代表用户喜欢的内容和不喜欢的内容。
对于DNN部分,模型的输入可以分为三部分,首先是常规的feature,包括用户的feature、用户搜索关键词的feature和目标广告的feature,几部分的离散特征经过embedding层转换为对应的embedding,然后进行concat,得到第一部分输入x,另外两部分是记忆网络存储的向量mu1和mu0,三部分进行concat,得到DNN的输入v=[x,mu1,mu0]。随后,v经过多层全连接网络得到预测结果:
接下来介绍下模型训练,在对MA-DNN模型进行优化的时候,其优化目标包含两个方面:
1)CTR预估要准确
2)记忆网络能够有效捕捉用户的偏好,包括喜欢的内容和不喜欢的内容
模型的损失可以分为两部分:
第一部分loss1的目标示使得CTR预估更准确,采用的是logloss:
第二部分loss2的形式如下:
其中zL代表DNN模块输出层前最后一个隐藏层的输出,该向量是对模型输入更高阶的抽象,如果对应的y=1,那么zL在一定程度上代表用户喜欢的内容,如果y=0,那么zL在一定程度上代表用户不喜欢的内容。可以看到,如果y=1,模型尽可能使mu1和zL的欧氏距离更小,如果y=0,模型尽可能使mu0和zL的欧氏距离更小。因此,向量mu1和mu0可以看成用户喜欢的内容和不喜欢的内容的抽象。
最后值得注意的是,loss2只用来训练兴趣向量,不应该影响DNN最后一层的输出zL,所以在训练时,loss2不作用于zL,即zL仅通过loss1进行更新。
3、实验结果
实验结果如下:
具体实验结论不再赘述,感兴趣的同学可参考原论文。
4、总结
最后咱们再来总结一下对于历史行为序列的处理(个人整理,或有遗漏):
1)Concat/Pooling,即将用户历史行为序列中物品对应的embedding进行concat或者pooling,实现比较简单,但没有考虑到历史行为与目标物品的相关性
2)attention,如阿里DIN,历史行为物品与目标物品进行attention计算对应的权重,然后进行加权求和,考虑了历史行为与目标物品的相关性,但是没有考虑历史行为的先后顺序以及时间因素
3)RNN结构,考虑了历史行为的时间顺序,但同样没有考虑到历史行为与目标物品的相关性
4)attention + GRU,如阿里的DIEN,考虑了用户历史行为中兴趣的演进过程,以及和目标物品的相关性,但是RNN结构线上耗时太高
5)Transformer,如阿里的BST,将RNN结构替换为Transformer,可以对历史行为进行并行处理,同时将时间因素加入到position encoding,考虑了历史行为发生的时间
6)MA-DNN,使用记忆网络处理用户历史行为,相较上述模型,实现较为简单,模型更为轻量。另外一个优势是对用户不感兴趣的物品进行了处理,而上述模型往往对用户感兴趣的物品进行处理。
7)如有补充,可在留言区留言!
网友评论