美文网首页深度学习△家庭 育儿
厉害了推荐系统—双塔 DSSM 模型(上)

厉害了推荐系统—双塔 DSSM 模型(上)

作者: zidea | 来源:发表于2020-07-18 21:01 被阅读0次
    GGB_Two-Towers_-Robin-Hill.jpg douyin.jpg

    厉害了推荐系统

    最近晚上睡前只要是打开了头条,打底就是一个小时时间,控制也是控制不足自己,已经影响到了我休息时间。自己也是感受到了推荐系统厉害。


    reducation_dimension.jpg

    降维

    在机器学习中也好、在数据挖掘中也好,我们喜欢将事物(文本、图像和音频等信息)抽象为向量。我们用于语言描述世界,传递信息。如何让计算机学会我们语言呢?这是一个看似简单问题,其实做起来很难的事情,我们语言是建立我们人类这个载体,我们见过高山大海、我们经历人间沧桑而机器对于语言的理解缺失了这些,这些除了语言以外却可以赋予语言生命力的东西。感觉这是应该是我们想要搞好自然语言处理的关键,仅是个人一点小见解。

    DSSM 模型简介

    DSSM(Deep Structured Semantic Model),有微软研究院提出,利用深度神经网络将文本表示为低维度的向量,应用于文本相似度匹配场景下的一个算法。不仅局限于文本,在其他可以计算相似性计算的场景,例如推荐系统中。

    其实我们现在来说一件事就是推荐系统和搜索引擎之间的关系。他们两者之间很相似,都是根据满足用户需求,根据用户喜好给出答案,但又不是完全相同,只不过推荐系统更难,因为推荐系统需要挖掘用户潜在喜好来推荐内容和物品给用户。这是因为搜索引擎和推荐系统的关系之间相似性,所以适用于文本匹配的模型也可以应用到推荐系统中。

    DSSM 模型结构

    我们还是先看网络结果,网络结果比较简单,是一个由几层全连接组成网络,我们将要搜索文本(Query)和要匹配的文本(Document)的 embedding 输入到网络,网络输出为 128 维的向量,然后通过向量之间计算余弦相似度来计算向量之间距离,可以看作每一个 D 和 Q 之间相似分数,然后在做 softmax ,网络结构如下图


    截屏2020-07-18下午4.12.52.png

    R(Q,D) = consine(y_Q,y_D) = \frac{y_Q^Ty_D}{||y_Q|| ||y_D||}

    名称 说明
    Term Vector 文本的向量
    Word Hashing 文本的 embedding 向量
    Multi-layer nonlinear projection 表示文本的 Embedding 向量
    Semantic feature 文本的 embedding 向量
    Relevance measured by consine similarity 表示计算 Query 与 Document 之间余弦相似度
    Posterior probability computed by softmax 表示通过 softmax 函数把 Query 与正样本 Document 的语义相似性转换为一个后验概率

    Multi-layer nonlinear projection

    • l_i 表示第 i 隐藏层
    • w_i 表示第 i 层的权重
    • b_i 表示第 i 层的偏置项
    • y: 表示输出为 128 维的向量
      \begin{aligned} l_i = W_i x\\ l_i = f(W_il_{i-1} + b_i)& i \in \{1,2,\cdots,N-1\}\\ y = f(W_Ll_{N-1} + b_N) \end{aligned}
      这里的隐藏层用 tanh 作为隐藏层和输出层的激活函数
      f(x) = \frac{1 - e^{-2x}}{1 + e^{-2x}}

    Posterior probability computed by softmax 层

    P(D^{pos}|Q) = \frac{\exp(\gamma R(Q,D^{pos}))}{\sum_{D^{\prime} \in D} \exp(\gamma R(Q,D^{pos}))}

    • \gamma:softmax 的平滑因子
    • D^{pos}: 为 Query 下的正样本,D^{\prime} - D^{pos} 为 Query 的随机采样的负样本,D 为 Query 下的整个样本空间。

    代价函数

    这里 Q 表示用户特征,在给定用户特征条件下,匹配到正样本 D 的极大似然,也就是说明在给定 Q 条件出现正样本 D 概率分布参数是什么样的,因为我们要求损失,所以前面加一个负号,最大值的问题转化为最小值的问题。
    L(A) = -\log \prod_{Q,D^{pos}} p(D^{pos}|Q)

    训练也比较好理解就是输入正负样本,然后通过,正确匹配出文本,

    DSSM 模型在信息检索、文本排序、问答、图片描述、及机器翻译等中有广泛的应用。

    从图上来看,

    DSSM 模型在推荐系统

    之前在协同过滤多少给大家介绍一些基于内容、用户或模型的协同过滤算法,在推荐中我们主要通过用户和物品之间关系,也是相似性来进行推荐,用户到物品可以看作一条路径,可以是用户到用户再到物品的路径,也可以是​物品到物品再到用户路径,这有很多种玩法。​

    play.png

    输入 Qury 例如是一个用户特征,然后我们将推荐给用户一系列物品,假设是一系列房源,然后用户点击的房源就是有可能用户想要看的,其实这个也不一定是用户真正意图。那么用户点击就是正样本,反之其他的就是样本。


    截屏2020-07-18下午4.36.24.png

    DSSM 模型在推荐召回环节的结果
    DSSM 模型的特点是由 Query 和 Document 两个相对独立子网络构成,在推荐系统召回环节,这两个子网分别为用户端(User)和物品短(Item)。这样做好处是利于产品化,可以分别对用户和物品端向量做单独的获取和存储。

    • X 表示用户特征,Y 表示物品的特征
    • 经过神经网络分别得到各自 128 维的 Embedding 向量
    • 计算 sim(u(X),v(Y)) 的余弦相似度

    候选集合召回
    当模型训练完成,物品的 Embedding 是可以保存成词表,线上应用的时候只要需要查找对应的 Embedding 即可。因此线上只需要计算一侧的 Embedding 这样节省了计算资源。

    相关文章

      网友评论

        本文标题:厉害了推荐系统—双塔 DSSM 模型(上)

        本文链接:https://www.haomeiwen.com/subject/gyditktx.html