美文网首页
语义召回模型-TwinBert

语义召回模型-TwinBert

作者: 南朝容止 | 来源:发表于2021-02-22 10:08 被阅读0次

    Microsoft在2020年提出了TwinBERT: Distilling Knowledge to Twin-Structured Compressed BERT Models for Large-Scale Retrieval这篇论文。今天有幸看了看,简单的跟大家分享下。

    解决问题

    论文主要解决的问题是:性能~ 性能~ 性能~~~

    Online Server需要快速处理,尤其是在召回阶段,面对上亿级Doc,为此减少在线计算大势所趋。

    架构原理

    TwinBert就是在这种背景下应运而生的,如下图结构:


    image.png

    主要讲下上面这张图:

    • 整体:
    1. 两个对称的Bert, 左边的Bert用于Query建模,右边的Bert用于Title keyword建模(或者Doc Context keyword建模)。
    2. 两个Bert走完后,再各自经过一个Pooling Layer,池化层,听起来很高大上,其实很简单,主要是将序列中每个token的向量搞在一起,做成一个向量。 Query做成一个向量, keyword做成一个向量,以方便进行后面的Cross Layer的交互。 池化层有两个操作二选一,【用CLS】 或者 【所有tokens向量平均加权起来】,其中后者权重是学出来的。
    • 输入 : 均为Word Embeding + Position Embeding。 因为两边都是一句话,所以就没有了Segment Embeding了。
      值得提一下是,论文中是训练的英文的模型,所对输入进行了Word Hashing,具体说是使用了Tri-letter, 至于什么是Word Hashing ,见本人的另外一文章Word Hashing。

    *Transformer Encoder
    这里不多说,其中L用的是6层。

    • 池化层
      见整体部分,已说明。

    *Cross Layer
    Query做成一个向量q, keyword做成一个向量k,二者进行距离计算,有两种方式,一种是余弦相似度,如下图:


    image.png

    另一种是Residual network, 这里不多讲,有兴趣,自身翻阅。

    如何训练?

    蒸馏方法训练。

    • teacher model
      所以要搞一个teacher model,文章用的12层的 query和title关键词的训练的。二分类,分为相关和不相关。最后输出一个概率。

    • student model
      有了teacher model, 现在就开始teach学生把,将上面讲的Cross layer做的输出通过LR压缩到区间(0,1), 因为余弦的值域是[-1,1].

    然后做一个做交叉熵 cross entropy。如下面公式:


    image.png

    优点

    节省性能,Query在线用Bert预测, Doc提前离线算好刷到索引。在线只需要做一次Query Bert预测,以及与Doc的向量计算。

    相关文章

      网友评论

          本文标题:语义召回模型-TwinBert

          本文链接:https://www.haomeiwen.com/subject/umjxfltx.html