美文网首页
attention机制

attention机制

作者: 加油11dd23 | 来源:发表于2020-02-09 18:06 被阅读0次

虽然一直在改进ABCNN,但是对于attention总是看了又忘,忘了又看,今天总结一下(方便自己日后复习即可)。

一、attention 机制思路

以一个例子讲解。机翻 “i am a student” 为 “我 是 一个 学生”。常规的方法是使用RNN,考虑连续语义输出。

但是以翻译“a”为例,我们人类的翻译往往翻译思路是首先将 “a” 翻译为 “一个”,而希望其他英文单词对翻译“a”单词的影响尽可能的小。这并不像常规RNN,在翻译“a”时会考虑 "i am",并且考虑的程度不小。以此类推,可以概括为希望网络在翻译单词时会将注意力放在当前正在翻译的单词上。

二、attention 机制实现

Sep2Sep

以Sep2Sep模型为例。输入英文句子" i am a student "到一个两层的LSTM编码网络中,经过编码后输入到另外一个两层的LSTM解码网络。

ht是第一个解码时刻的隐含状态,在解码第一个时刻(ht)时,想要将注意力放在`h1上,很显然要增加解码`h1时对应的权重。这又分为两步。1、判断是否应该将注意力放在`h1上面/判断应该将注意力放在哪个编码时刻的隐含状态。2、依照各个隐含状态与待解码状态的相似程度来改变编码状态`h1,`h2,`h3,`hs的权重,之后与解码中的隐含态ht结合共同得到输出结果。

1、判断哪一个`hx与h1最相似

相似计算很简单也很难,此时的 ht 与编码部分的隐含状态都处于同一个Embedding space,所以可通过判断哪一个`hx与ht最相似来解决,在机翻中按常规思路依照下面公式计算即可

其中score就是相似度计算函数(同时进行了softmax归一化),并且通常有两种计算方式

2、计算权重,得到ht(context vector)

当网络分别得到当前解码时刻与所有编码时刻对应的相似度系数之后(图中的attention weights),再以加权就和的形式将所有的编码状态累加起来得到context vector(解码层翻译第一个单词的第一个输入),最终与 ht(解码层翻译第一个单词的第二个输入)组合得到当前解码时刻的输出。(之所以要以加权求和的形式进行是因为,虽然此时的ht仅仅只与 `h1 最为相关,但同样也受其它编码状态的影响(例如到句型复杂的时候)。但是,若是换了应用场景,只进行对应权重乘以对应隐含状态,不进行累加也是可以的。

按照上面思路,有了下面的公式:

三、attention改进点

通过以上分析我们可以发现,要运用注意力机制最为重要的一点就是能找到一个相似度对比的过程,也就是图中 

 ht与所有隐含状态对比的例子

参考:https://zhuanlan.zhihu.com/p/67909876

相关文章

  • Attention机制概念整理

    深度学习中的注意力机制(Attention Macheanism): Attention机制较为广泛的应用是为了解...

  • 理论汇总

    1 多任务学习 (1)多任务学习在推荐算法中的应用 2 attention机制 (1)Attention机制在深度...

  • attention机制

    当前的embedding向量cur_f1 和 历史的embedding向量his_f1 计算相似性; 对相似性权重...

  • Attention 机制

    Attention 机制 人类视觉系统会对被观察对象的不同地方,分配不同的注意力,而 Attention 机制正是...

  • Attention 机制

    记录一下自己所理解的 Attention 机制:首先先从 Encoder-Decoder 框架来宏观角度的看 At...

  • Attention机制

    用Attention机制的原因是考虑到RNN(或者LSTM,GRU等)的计算限制为是顺序的,也就是说RNN相关算法...

  • Attention机制

    历史 2014年google mind团队,在RNN模型上使用了attention机制来进行图像分类,然后取得了很...

  • Attention 机制

    An Attention Function can be described as mapping a query...

  • attention机制

    1. 增强型attention算法的理解 上图中的softmax(QT)为attention权重,具体过程为:  ...

  • attention机制

    虽然一直在改进ABCNN,但是对于attention总是看了又忘,忘了又看,今天总结一下(方便自己日后复习即可)。...

网友评论

      本文标题:attention机制

      本文链接:https://www.haomeiwen.com/subject/hldnxhtx.html