美文网首页
bert关键概念

bert关键概念

作者: 结构学AI | 来源:发表于2019-12-31 09:22 被阅读0次

原本在seq2seq里面是两个lstm
中间的context是静态的 ;

每一个输出会生成一个新的context

image.png

decoder里面不是使用的不是lstm

sequence loss 计算loss的时候家属一个掩码,把和特殊字符计算出来的loss值丢掉

相关文章

网友评论

      本文标题:bert关键概念

      本文链接:https://www.haomeiwen.com/subject/koxboctx.html