美文网首页
Graph Attention Network在全联接图上会发生

Graph Attention Network在全联接图上会发生

作者: longlonglongman | 来源:发表于2020-03-23 17:16 被阅读0次

最近在使用GAT对实体编码做关系抽取任务的时候,发现实体表示经过GAT编码后就变成了几乎一致了,后来发现可能是图太稠密,快变成全联接图的锅。

Graph Attention Network

Graph Attention Network

GAT在全联接图上

对于下面的全联接图

根据GAT的attention计算公式,对于节点x_i

\alpha_{ij} = \frac{exp(LeakyReLU(a^{\top}[wx_i||wx_j]))}{\sum_{k=1}^{3}exp(LeakyReLU(a^{\top}[wx_i||wx_k]))}

a^{\top}[wx_i||wx_k] > 0,i=1,2,3,k=1,2,3时,有

\alpha_{ij} = \frac{exp(a^{\top}[wx_i||wx_j])}{\sum_{k=1}^{3}exp(a^{\top}[wx_i||wx_k])}

a^{\top}重新表示成[a_1^{\top}, a_2^{\top}],则

\alpha_{ij} = \frac{exp(a_1^{\top}wx_i + a_2^{\top}wx_j)}{\sum_{k=1}^{3}exp(a_1^{\top}wx_i+a_2^{\top}wx_k)}

计算其倒数

\frac{1}{\alpha_{ij}} = 1 + \sum_{k=1 \wedge k \not= j}^{3}exp(a_2^{\top}w(x_k - x_j))

由上式可知

\frac{1}{\alpha_{11}} = \frac{1}{\alpha_{21}} = \frac{1}{\alpha_{31}}, \frac{1}{\alpha_{12}} = \frac{1}{\alpha_{22}} = \frac{1}{\alpha_{32}}, \frac{1}{\alpha_{13}} = \frac{1}{\alpha_{23}} = \frac{1}{\alpha_{33}}

\alpha_{11} = \alpha_{21} = \alpha_{31}, \alpha_{12} = \alpha_{22},\alpha_{32},\alpha_{13} = \alpha_{23} = \alpha_{33}

由于每个节点经过GAT后的表示为

\tilde{x}_{i}   =\sum_{j = 1}^{3}\alpha_{ij}x_j

所以有

\tilde{x} _1 = \tilde{x} _2 = \tilde{x} _3

表示都变成一样的了

相关文章

网友评论

      本文标题:Graph Attention Network在全联接图上会发生

      本文链接:https://www.haomeiwen.com/subject/nbnwyhtx.html