美文网首页
self-attention(自注意力机制)计算过程

self-attention(自注意力机制)计算过程

作者: IT_小马哥 | 来源:发表于2020-05-25 15:20 被阅读0次

感觉这个视频讲的特别清楚:
第一节
第二节
所以做了这个图记录一下:

自注意力计算过程.png
  • 矩阵W_q、W_k、W_v是我们需要学习的矩阵
  • Div的时候要除以\sqrt d_x,其中d_x为向量Q维数
  • Score、Div、Softmax都是对向量的操作
  • 最终的结果可以看做一个单词在句子中的重要程度。

相关文章

网友评论

      本文标题:self-attention(自注意力机制)计算过程

      本文链接:https://www.haomeiwen.com/subject/dfuyahtx.html