美文网首页散文心理想法
注意力机制和transformer

注意力机制和transformer

作者: Cache_wood | 来源:发表于2022-02-26 00:24 被阅读0次

@[toc]

非参注意力池化层

  • 给定数据(x_i,y_i),i = 1,……,n

  • 平均池化是最简单的方案:f(x) = \frac{1}{n}\sum_i y_i

  • 更好的方案是60年代提出来的Nadaraya-Watson核回归
    f(x) = \sum_{i=1}^n \frac{K(x-x_i)}{\sum_{j=1}^n K(x-x_j)}y_i\\

  • 使用高斯核 K(u) = \frac{1}{\sqrt{2\pi}}exp(-\frac{u^2}{2})

  • f(x) = \sum_{i=1}^n \frac{exp(-\frac{1}{2}(x-x_i)^2)}{\sum_{j=1}^n exp(-\frac{1}{2}(x-x_j)^2)}y_i\\ \sum_{i=1}^n softmax(-\frac{1}{2}(x-x_i)^2)y_i

参数化的注意力机制

  • 心理学认为人通过随意线索和不随意线索选择注意点
  • 注意力机制中,通过query(随意线索)和key(不随意线索)来有偏向性的选择输入
    • 可以一般的写作f(x) = \sum_i \alpha (x,x_i)y_i,这里\alpha (x,x_i)是注意力权重
    • 早在60年代就有非参数的注意力机制

注意力分数

拓展到高维度
  • 假设query q \in R^q, m对key-value (k_1,v_1),…,这里
Additive Attention
  • 可学参数:W_k \in R^{h\times k}, W_q \in R^{h \times q}, v \in R^h

    a(k,q) = v^T tanh(W_k k + W_q q)

  • 等价于将key和value合并起来后放入到一个隐藏大小为h输出大小为1的单隐藏层MLP

Scaled Dot-Product Attention
  • 如果query和key都是同样的长度q,k_i \in R^d,那么可以
    a(q,k_i) = <q,k_i>/\sqrt{d}

  • 向量化版本

    • Q\in R^{n\times d},K\in R^{m\times d},V \in R^{m\times v}
    • 注意力分数:a(Q,K) = QK^T/\sqrt{d} \in R^{n \times m}
    • 注意力池化:f = softmax(a(Q,K)) V \in R^{n\times v}
总结
  • 注意力分数是query和key的相似度,注意力权重是分数的softmax结果
  • 两种常见的分数计算:
    • 将query和key合并起来进入一个单输出单隐藏层的MLP
    • 直接将query和key做内积

使用注意力机制的seq2seq

动机

  • 机器翻译中,每个生成的词可能相关于源句子中不同的词
  • seq2seq模型中不能对此直接建模
加入注意力 Encoder
  • 编码器对每次词的输出作为key和value
  • 解码器RNN对上一个词的输出是query
  • 注意力的输出和下一个词的词嵌入合并进入
总结
  • seq2seq中通过隐状态在编码器和解码器中传递信息
  • 注意力机制可以根据解码器RNN的输出来匹配到合适的解码器RNN的输出来更有效的传递信息

自注意力机制

自注意力
  • 给定序列x_1,……,x_n, x_i \in R^d

  • 自注意力池化层将xi当做key,value,query来对序列抽取特征得到y_1,…,y_n,这里
    y_i = f(x_i,(x_1,x_1),…,(x_n,x_n))\in R^d

跟CNN,RNN对比
CNN RNN 自注意力
计算复杂度 O(knd^2) O(nd^2) O(n^2d)
并行度 O(n) O(1) O(n)
最常路径 O(n/k) O(n) O(1)
位置编码
  • 跟CNN/RNN不同,自注意力并没有记录位置信息

  • 位置编码将位置信息注入到输入里

    • 假设长度为n的序列是X\in R^{n\times d},那么使用位置编码矩阵P \in R^{n \times d}来输出X+ P作为自编码输入

    • P的元素如下计算:
      p_{i,2j} = sin(\frac{i}{10000^{2j/d}}),p_{i,2j+1} = cos(\frac{i}{10000^{2j/d}})

位置编码矩阵
相对位置信息
  • 位置于i+\delta处的位置编码可以线性投影位置i处的位置编码来表示
  • w = 1/10000^{2jld},那么

[cos(\delta w_j) \quad sin(\delta w_j)\\ -sin(\delta w_j) \quad cos(\delta w_j)][p_{i,2j}, p_{i+\delta,2j+1}]\\ 投影矩阵,跟i无关

总结
  • 自注意力池化层将xi当做key,value,query来对序列抽取特征
  • 完全并行,最长序列为1,但对长序列计算复杂度高
  • 位置编码在输入中加入位置信息,使得自注意力能够记忆位置信息

transformer

Transformer架构
  • 基于编码器-解码器架构来处理序列对
  • 跟使用注意力的seq2seq不同,transformer是纯基于注意力
多头注意力
  • 对同一key,value,query,希望抽取不同的信息

    例如短距离关系和长距离关系

  • 多头注意力使用h个独立的注意力池化

    • 合并各个头(head)输出得到最终输出
有掩码的多头注意力
  • 解码器对序列中一个元素输出时,不应该考虑该元素之后的元素
  • 可以通过掩码来实现
    • 也就是计算xi输出时,假装当前序列长度为i
基于位置的前馈网络
  • 将输入形状由(b,n,d)变换成(bn,d)
  • 作用两个全连接层
  • 输出形状由(bn,d)变化为(b,n,d)
  • 等价于两层核窗口为1的一维卷积层
层归一化
  • 批量归一化对每个特征/通道里元素进行归一化
    • 不适合序列长度会变的NLP应用
  • 层归一化对每个样本里的元素进行归一化
信息传递
  • 编码器中的输出y_1,…,y_n
  • 将其作为解码中的第i个transformer块中多头注意力的key和value
    • 它的query来自目标序列
  • 意味着编码器和解码器中块的个数和输出维度都是一样的
预测
  • 预测第t+1个输出时
  • 解码器中输入前t个预测值
    • 在自注意力中,前t个预测值作为key和value,第t个预测值还作为query
总结
  • transformer是一个纯使用注意力的编码-解码器
  • 编码器和解码器都有n个transformer块
  • 每个块里使用多头(自)注意力,基于位置的前馈网络,和层归一化

相关文章

网友评论

    本文标题:注意力机制和transformer

    本文链接:https://www.haomeiwen.com/subject/irjnlrtx.html