美文网首页AI
一句话解释Attention技术

一句话解释Attention技术

作者: 数据智能谷 | 来源:发表于2020-03-04 20:23 被阅读0次

一句话: Attention就是权重。

带有Attention机制的计算模型,就是之前的计算参数中,有多了一层权重参数。由此带来

好处:结果可能更加准确。
坏处:计算量增加。

相关文章

网友评论

    本文标题:一句话解释Attention技术

    本文链接:https://www.haomeiwen.com/subject/yayilhtx.html