美文网首页
Attention注意力机制

Attention注意力机制

作者: 潇萧之炎 | 来源:发表于2019-05-26 18:35 被阅读0次

LSTM


01.png

图A是在走隐层的路上,第一道门忘记门x[0,1],决定保留多少信息过来;第二道门,+[-1,1],信息增益门,多的更多少的更少。


02.png

机器学习面试之Attention
https://www.jianshu.com/p/c94909b835d6
Attention注意力机制介绍
https://www.cnblogs.com/hiyoung/p/9860561.html
自然语言处理中的Attention Model:是什么及为什么
https://blog.csdn.net/malefactor/article/details/50550211

相关文章

网友评论

      本文标题:Attention注意力机制

      本文链接:https://www.haomeiwen.com/subject/dxuftctx.html