美文网首页
第四次打卡-2020-02-17

第四次打卡-2020-02-17

作者: Vivus | 来源:发表于2020-02-17 23:30 被阅读0次

    学习笔记

    一、机器翻译及相关技术

    机器翻译(MT)

    将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。
    将数据集清洗、转化为神经网络的输入minbatch,分词,建立词典,然后生成encoder-decoder模型:


    image.png

    Sequence to Sequence模型

    训练



    预测


    二、注意力机制

    在seq o seq中,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种结构存在着问题,尤其是RNN机制实际中存在长程梯度消失的问题,对于较长的句子,我们很难寄希望于将输入的序列转化为定长的向量而保存所有的有效信息,所以随着所需翻译句子的长度的增加,这种结构的效果会显著下降。与此同时,解码的目标词语可能只与原输入的部分词语有关,而并不是与所有的输入有关。在seq2seq模型中,解码器只能隐式地从编码器的最终状态中选择相应的信息。然而,注意力机制可以将这种选择过程显式地建模。



    注意力机制本身有高效的并行性,但引入注意力并不能改变seq2seq内部RNN的迭代机制,因此无法加速模型训练。

    三、Transformer

    为了整合CNN和RNN的优势,[Vaswani et al., 2017] 创新性地使用注意力机制设计了Transformer模型。该模型利用attention机制实现了并行化捕捉序列依赖,并且同时处理序列的每个位置的tokens,上述优势使得Transformer模型在性能优异的同时大大减少了训练时间。

    多头注意力层

    自注意力机制

    自注意力模型是一个正规的注意力模型,序列的每一个元素对应的key,value,query是完全一致的。如上图自注意力输出了一个与输入长度相同的表征序列,与循环神经网络相比,自注意力对每个元素输出的计算是并行的,所以我们可以高效的实现这个模块。
    多头注意力层包含多个并行的自注意力层,每一个这种层被成为一个head。

    相关文章

      网友评论

          本文标题:第四次打卡-2020-02-17

          本文链接:https://www.haomeiwen.com/subject/wwkwfhtx.html