美文网首页
论文阅读“Self-supervised Graph Convo

论文阅读“Self-supervised Graph Convo

作者: 掉了西红柿皮_Kee | 来源:发表于2021-09-27 11:52 被阅读0次

Xia W, Wang Q, Gao Q, et al. Self-supervised Graph Convolutional Network for Multi-view Clustering[J]. IEEE Transactions on Multimedia, 2021.

摘要翻译

现有的基于图卷积网络(GCN)的多视图学习方法,尽管有初步的有希望的结果,但由于直接使用图结构作为视图描述符,可能会抑制多媒体数据的多视图学习能力。主要原因是,在实际的多媒体应用中,图形结构可能包含异常值。此外,现有方法没有利用从获得的不准确的聚类标签中学习嵌入信息,导致聚类结果较差。为此,本文提出了一种用于多视图聚类(SGCMC)的端到端自监督图卷积网络。具体来说,SGCMC通过欧拉变换将原始节点内容映射到复杂空间,为图结构数据构造了一个新的视图描述符,这不仅抑制了异常值,还揭示了数据中嵌入的非线性模式。同时,所提出的SGCMC使用聚类标签来指导潜在表示和系数矩阵的学习,然后利用系数矩阵进行后续的节点聚类。这样,聚类和表示学习就可以无缝地连接起来,目的是实现更好的聚类结果。大量的实验表明,所提出的SGCMC优于最先进的方法。

在论文的Intro部分,作者提到了在处理图结构数据时的Co-GCN。该模型(Co-GCN)首先将节点内容和图结构视为不同的视图描述符,并分别为每个视图构造最近邻图。然后为每个视图训练一个图编码器,通过聚合每个视图的潜在表示形式来获得下游任务的公共表示。
虽然Co-GCN为多视图学习提供了一个新的解决方案,但它仍然有以下缺点:

  • 在处理图结构数据时,它直接利用图结构作为视图描述符,这可能会抑制多视图学习的能力。
  • 它忽略了嵌入在不准确的聚类标签中的有用信息。

作者提出的SGCMC包括两个步骤。第一步旨在学习每个视图的潜在表示和不同视图共享的系数矩阵,将不同视图的输入映射到SGCMC正向路径forward pathway的潜在空间中。第二步实现节点聚类,并使用不准确的聚类标签来指导潜在表示和系数矩阵的学习。有了这样的策略,即使没有提供真正的label信息,SGCMC仍然可以端到端的进行训练。同时,这种方法将导致更好的系数矩阵和优越的聚类性能。

模型浅析
  • View Descriptor Construction 视图描述构造

    首先是关于数据的描述

现有的节点聚类方法只有原始节点描述符X^{(1)}。对于多视图设置,作者利用欧拉变换(Euler principal component analysis,2013)来提取非线性特征作为一个新的视图描述符X^{(2)}。更具体地说,使用欧拉变换将一个任意向量x_p \in R^{d_v}映射到复表示z_p \in C^{d_v}上,具体的做法可以形式化为:


其中,i是单位虚数,\alpha \in R^{+}是频率值,并被调整以抑制由异常值引起的值。x_p∈X{(1)}是第p个节点的原始描述符,z_p∈Zx_p的欧拉表示。所以这里等价为:X^{(2)}=Z
  • 子空间节点聚类模块
    子空间聚类的目的是学习一个由不同视图共享的共同系数表示矩阵,然后使用该矩阵将每个节点分配到这个新子空间中的K个集群中的一个。由此,SGCMC得到了具有两个联合模块的节点聚类结果。一种是具有图注意自动编码器的子空间聚类模块,另一个是一个自监督的学习模块用于同时监督隐含表示的学习和系数表示的学习。
    与通常的多视图图表示一致,作者假设 每个视图有着一样的图结构表示A,即A=A^{(1)}=A^{(2)}F^{(v)} \in R^{d_{l2}×N}是对应的由图注意力编码器得到的隐含表示,其中d_{l2}是隐含表示的维度。\hat{A}^{(v)}\hat{X}^{(v)}分别是重建的图结构和节点内容。
    具体来说,SGCMC通过一系列非线性变换逐步将原始样本\{X^{(v)}, A^{(v)} \} 映射到潜在表示F^{(v)}中。在这里,这些转换是由GATE(Graph attention auto-encoders)建模的。为了缓解不同F^{(v)}之间的异质差距,并更好地对齐潜在表示,作者在所提出的SGCMC中建立了一个多视图共享的自动编码器。

【 In order to relieve the heterogeneous gap between different F^{(v)} and better align latent representation, we build a multi-view shared auto-encoder in the proposed SGCMC.】

多视图共享自动编码器由一个四层图注意自动编码器,即两层编码器和两层解码器编码器组成。除了内容的重建之外,论文还利用内部乘积解码器来重建每个视图的图结构A^{(v)}。为了便于表示,第v个视图的潜在表示可表示为:

其中,Θ_\epsilon表示多视图共享图注意编码器的可训练参数。为了强制表示F^{(v)}比原始数据更适合聚类,SGCMC在此使用了自表达学习的良好特性来获得一个视图共识系数表示。为了获得不同视图共享的良好系数矩阵,模型对第v个视图的潜在表示F^{(v)}采用自我表达运算,可以定义为 其中,C∈R^{N×N}为视图-共识系数表示。同时为了防止简单的解决方案C=I,模型在设置的时候约束C_{pp}=0。因此,SGCMC最小化了以下目标函数L_{Sub}:

为了确保SGCMC能够在不同视图之间学习一致的子空间C,模型的优化使用一致的表示约束L_{Con}来捕获嵌入在不同视图中的几何关系相似性。

当我们得到系数表示C时,诱导亲和矩阵可以通过∆=1/2(|C|+|C^{T}|)。并且通过在亲和矩阵\Delta上应用谱聚类算法得到聚类结果,也就是对应样本的伪标签。
同时,为了确保潜在表示F^{(v)}保留足够的节点内容信息和图结构信息,随后将每个视图的新表示F^{(v)}C输入图注意解码器重构原始节点内容X^{(v)}和内积解码器重构原始图结构A^{(v)}。因此,图注意解码器与编码器具有对称的结构。
论文通过优化节点内容重构损失L_{AR}和图结构重构损失L_{GR}来训练具有注意机制的图自动编码器。

  • 自监督模块
    作者在该模块引入了分类思想使用cross-entropy监督表示学习。 其中,\hat{L}为聚类输出的伪标签信息,\hat{Y}^{(v)}是每个视图分类器的输出结果。并且作者指出,在每轮训练中,\hat{L}是固定的。
    为了利用聚类标签矩阵中的信息,模型同时也最小化系数矩阵C与聚类标签矩阵\hat{L}之间的不一致性。 其中,\hat{l_p},\hat{l_q}则是在标签矩阵中,被聚类到同一个类簇中的样本所对应的表示。因此,以往的聚类结果可以为系数矩阵C的微调提供自监督信息,有助于节点子空间的聚类。
    注:由于光谱聚类提供的聚类标签是一个未知的排列,因此导致连续两个时期的类标签可能不一致。模型采用匈牙利算法来寻找之前迭代的伪标签之间的最优对齐,然后将这些伪标签输入自我监督学习模型。
    Fixing \hat{Y}, we update other parameters in SGCMC for T_0 epoches, and then update \hat{Y} once for obtaining stable results.
  • 实现细节

    因此,我们在端到端可训练框架中结合子空间节点聚类、自监督学习。所提出的SGCMC的目标函数被归纳为
    整体的算法如下:

一点思考:
S:欧拉变换是否可以作为一种对比学习的方式引进
作者的框架可以说是以GTAE为基础模型,通过在多视图之间共享编码和解码的权重,从而达到减少参数和共同训练的目的。同时,为了达到多视图之间聚类一致性的目的,融合了一个自表示的系数矩阵作为新学习的子空间表示然后用于谱聚类。并且为了更好的监督伪标签信息之间的分配,还单独为每个视图都构造了FCN用于分类。使用聚类所得的伪标签信息和分类的结果进行比对,最小化corss-entropy loss以监督各视图的表示学习。
整个模型看起来很庞大,但是其实作者针对的数据集并不是真正的多视图任务,只是用欧拉变换构造了另一个视图X^{(2)}=Z。在后续的对比学习的探索中,可以为多视图构造欧拉变换表示,做为数据增强。

相关文章

网友评论

      本文标题:论文阅读“Self-supervised Graph Convo

      本文链接:https://www.haomeiwen.com/subject/qqlcnltx.html