美文网首页
2021-10-17 NLP transformer

2021-10-17 NLP transformer

作者: Joyner2018 | 来源:发表于2021-10-17 19:04 被阅读0次
        transformer
            模型的输入Embedding层
                Word Embedding
            Positional Encodding
            encoder
                encoder layer
                    SubLayerConnection1
                        多头自注意力层
                            注意力层(q,k,v均是来自上一个子层)
                                mask
                        规范化层LayerNorm
                        残差连接
                    SubLayerConnection2
                        前馈全连接层
                        规范化层LayerNorm
                        残差连接
            decoder
                decoder layer
                    SubLayerConnection1
                        多头自注意力子层(和encoder的完全一样)
                            注意力层(q,k,v均是来自上一个子层)
                                mask
                        规范化层LayerNorm
                        残差连接
                    SubLayerConnection2
                        多头注意力子层
                            注意力层(query来自上一个子层,key和value来自编码器的输出)
                                mask
                        规范化层LayerNorm
                        残差连接
                    SubLayerConnection3
                        前馈全连接层
                        规范化层LayerNorm
                        残差连接
    

    相关文章

      网友评论

          本文标题:2021-10-17 NLP transformer

          本文链接:https://www.haomeiwen.com/subject/xgpwoltx.html