美文网首页
self-attention自注意力机制

self-attention自注意力机制

作者: 可能性之兽 | 来源:发表于2022-07-14 15:16 被阅读0次

    看代码呆了半天,实在看不懂注意力机制是怎么回事,所以研究了一下原理

    self.attention计算过程

    query 就是自身的权重,key是其他的特征的权重,attention score就是其他权重和自身权重进行相乘得到的值


    image.png
    [图片上传中...(20220713_030107.png-765899-1657781807513-0)]

    不一定要用softmax


    20220713_030107.png

    V就是a乘以W^v,然后qkv相乘再相加就可以得到b1进行下一步的学习


    image.png

    然后将上面的计算过程转换为矩阵乘法


    20220713_031133.png

    其实关键的参数就是红框之中的三个,这三个参数是未知的,也就是需要学习的


    20220713_031726.png

    多头的self.attention

    其实就将单的自注意力模型变成多个,彼此之间独立求出来,其实也就是假设会有两种q,v,k。transformer这些便是靠multi-head self-attention搭出来


    20220713_035643.png

    CNN,RNN,GNN和self-attention的关系

    CNN其实是self.attention一个特例,RNN可以被self.attention替换,或者说self-attention本来就是从RNN的seq2seq一步步改进过来的

    image.png

    self-attention 自动找出node共和node之间的关联性

    image.png image.png
    20220713_042626.png

    self_attention的变形

    selfattention计算太慢,所以出现了很多变体
    Transformers大家族——Efficient Transformers: A Survey - 知乎 (zhihu.com)

    [2009.06732] Efficient Transformers: A Survey (arxiv.org)

    image.png
    【機器學習2021】自注意力機制 (Self-attention) (上) - YouTube

    相关文章

      网友评论

          本文标题:self-attention自注意力机制

          本文链接:https://www.haomeiwen.com/subject/jlltirtx.html