美文网首页NLP&NLU
attention和self-attention的区别

attention和self-attention的区别

作者: 陈半仙儿 | 来源:发表于2020-01-14 10:08 被阅读0次

以Encoder-Decoder框架为例,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention发生在Target的元素Query和Source中的所有元素之间。

Self Attention,指的不是Target和Source之间的Attention机制,而是Source内部元素之间或者Target内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的Attention。

两者具体计算过程是一样的,只是计算对象发生了变化而已。

相关文章

网友评论

    本文标题:attention和self-attention的区别

    本文链接:https://www.haomeiwen.com/subject/czmoactx.html