一句话: Attention就是权重。
带有Attention机制的计算模型,就是之前的计算参数中,有多了一层权重参数。由此带来
好处:结果可能更加准确。
坏处:计算量增加。
一句话: Attention就是权重。
带有Attention机制的计算模型,就是之前的计算参数中,有多了一层权重参数。由此带来
好处:结果可能更加准确。
坏处:计算量增加。
本文标题:一句话解释Attention技术
本文链接:https://www.haomeiwen.com/subject/yayilhtx.html
网友评论