美文网首页
注意力机制

注意力机制

作者: jeffbourbaki | 来源:发表于2019-01-12 00:40 被阅读0次

注意力机制在机翻里相当于词对齐,只不过比单纯的词对齐更精细。
在seq2seq中加入注意力机制这一步相当于用giza词对齐搭建SMT,
考虑到实际中完美的词对齐可能不存在,自然注意力机制会更接近真实情况。

假如A B C三个词对应一个目标语言翻译”某“,
源文本X X A X X B X C X X X
词对齐相当于分配权重(0 0 0.33 0 0 0.33 0 0.33 0 0 0)
但实际的训练结果也许是(0.02 0.01 0.3 0 0 0.3 0.03 0.3 0.01 0.01 0.01)
翻译结果中的一个词之所以是那么翻译,是由整个句子的语境信息决定的。想剥离出一个源语言词簇作为这个目标语言词的”源“太理想化了。

词对齐的缺陷:不允许重复使用
这样即便一个词的译法不只由中心词决定,还看语境,而语境各词又被明确译出,词对齐就无法体现出语境是否左右了该词的译法了。

直观上,比如设置一个显著性的门限,可以导出一个词对齐。
这意味着确定了靠那几个词就可以确定如何翻译出一个词。

另一种理解是权值低的词的意思来修正权值高的词的翻译结果

相关文章

  • pytorch中加入注意力机制(CBAM)

    第一步:找到ResNet源代码在里面添加通道注意力机制和空间注意力机制所需库 通道注意力机制 空间注意力机制 在R...

  • 注意力机制学习

    简要介绍: 所谓的注意力机制,其实就是让系统学会注意力-即关注重点信息忽略无关信息。带有注意力机制的系统,不仅可以...

  • transformer模型

    参考文章Transformer注意力机制有效的解释:Transformer所使用的注意力机制的核心思想是去计算一句...

  • 【Transformer理解】

    Transformer是一个利用注意力机制来提高模型训练速度的模型。关于注意力机制可以参看这篇文章[https:/...

  • 不得不说的事儿,Attention和Transformer

    注意力机制和Transformer,All u need is Attention!

  • Selective Kernel Networks(Upgrad

    SENet是对特征图的通道注意力机制的研究,之前的CBAM提到了对特征图空间注意力机制的研究。这里SKNet针对卷...

  • 注意力机制

    (一)注意力机制 接下来的这部分就是序列模型中transformer的重要部分了我门先从注意力机制开始入手。 (1...

  • 注意力机制

    1. 前言 神经网络在进行特征提取的时候,会将所有的输入进行处理,提取得到的特征并没有进行特别的处理。那么,如果神...

  • 注意力机制

    注意力机制在机翻里相当于词对齐,只不过比单纯的词对齐更精细。在seq2seq中加入注意力机制这一步相当于用giza...

  • 注意力机制

    注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都...

网友评论

      本文标题:注意力机制

      本文链接:https://www.haomeiwen.com/subject/ohcqdqtx.html