美文网首页
论文阅读“Contrastive and attentive g

论文阅读“Contrastive and attentive g

作者: 掉了西红柿皮_Kee | 来源:发表于2022-05-31 17:06 被阅读0次

    Wang R, Li L, Tao X, et al. Contrastive and attentive graph learning for multi-view clustering[J]. Information Processing & Management, 2022, 59(4): 102967.

    摘要导读

    基于图的多视图聚类旨在利用多视图图信息来提供聚类解决方案。多视图的一致性约束是多视图图聚类的关键。现有的研究大多是生成融合图,并通过聚类损失来约束多视图的一致性。本文认为局部视图对的一致性可以实现多个视图中的共识信息的fine-modeling(精细建模)。为此,本文提出了一种新的对比和注意图学习框架的多视图聚类方法。具体来说,本文设计了一个多视图图学习的 contrastive fine-modeling,利用最大化成对视图的相似性,以保证多视图的一致性。同时,采用基于注意力网络的附加加权细化融合图模块,动态捕捉不同视图的容量差异,进一步促进了单个视图和融合视图的相互强化。此外,提出的CAGL可以通过一个自训练的聚类模块来学习一个专门的聚类表示。最后,开发了一个联合优化目标来平衡每个模块,并在图编解码器的框架下迭代优化所提出的CAGL。

    With the development of information collection and processing technology, multi-view data with multiple types of features are pervasive in various application domains. For example, a text document can be analyzed by word, sentence, and paragraph or different languages. (Cross language text classification via subspace co-regularized multi-view learning)

    Intro结构记录
    • 多视图数据介绍
    • 图表示的引入

    The graph is widely used in representation learning as an important data structure to represent the relationship between various types of objects.

    • 基于图的多视图聚类方法的介绍

    Given the natural advantages of graph structure, graph-based multi-view clustering (GMC) has made impressive progress.

    • 现有方法存在的缺点总结(因此本文提出了什么方法)
    • 本文提出的解决方案的模块化介绍

      整体流程图可以由如下表示: flow chart
    • 总结
    • 文章的章节安排
    方法浅析

    数据定义:给定包含m个视图多视图图数据集,\{X^1,\cdots,X^m\}X^m=\{x^m_1,\cdots,x^m_n\} \in R^{d_m \times n}。即,视图m包含n个样本点,且对于视图m而言,其维度为d^m
    除一个多视图图自编码器之外,整体的模型主要包含三个主要模块,分别为基于注意权重的融合模块,对比多视图图学习模块,以及一个自训练的聚类模块。

    • Multi-view graph encoder
      GCN每一层的计算可以写成: 其中,\rho为激活函数,\tilde{A}=D^{-\frac{1}{2}}AD^{-\frac{1}{2}}是正则化之后的对称邻接矩阵。W_0为权重矩阵。l表示GCN的层数。当l=0时,L^{(0)}=X
      对于每个视图的输入,都对应着一个自己视图的GCN图编码器。
    • Att-weighted graph fusion module


    对样本特征进行加权平均融合特征和对视图特征拼接往往导致性能次优。因此,作者引入了注意力机制学习每个视图的权重参数。基于该思想,模型可以对来自不同视图的信息进行利用,其z_i^{fusion}计算方式如下:

    其中s_mm视图的加性核学习,a_i^m为softmax得到的权重参数。z_i^{fusion}为融合后的特征表示。s_m的计算可以由两层的MLP计算得到,首先通过的是一个带有偏置项和激活函数的全连接层,第二层相当于是权重的修正学习。
    通过att加权融合模块获得的融合特征增强了多视图的全局识别程度。
    • Contrastive multi-view graph learning module


    在此基础上,本模块的目标是实现在多个视图中的共识信息的fine-modeling。本模块对传统的基于样本的视图对齐的对比学习方法:

    此时正负例的设置是来自视图的同一样本和不同样本。在此基础上,为了最大化正例以实现一致的表示特征,本文对负例进行了重新定义,即s_{ii}^{(m,v)}, v \neq m'为负例样本。 这个式子我觉得存在一定的错误,即红框之内的,v \neq i,首先v是视图的角标,i是样本的角标,二者不存在相等的关系。其次,在给定的负例的定义中,仅包含当前样本的不同视图表示,因此分母部分存在一定的笔误。
    笔者认为关于l_i^{(m,m')}的定义应该是如下的形式:l_i^{(m,m')}=-log\frac{exp(s_{ii}^{(m,m')})/\tau}{\sum_{v \neq m' I_{[v \neq m]}}exp(s_{ii}^{(m,v)})/\tau}上式中,排除了(m,m)(m,m')作为负例的情况。在这种情况下,对于仅包含两个视图的数据集,其计算就被简化为l_i^{(m,m')}=-log~exp(s_{ii}^{(m,m')})/\tau。(作者在实验中缺失避免了对两个视图数据集的使用
    对于一个batch中的所有样本,其损失计算方式如下: 通过最小化该损失,使得整个模型增加了局部视图对的一致性,实现了多个视图中共识信息的fine-modeling。
    • Self-training clustering module


    该模块的主要操作是形成以聚类分配驱动的深度框架,聚类损失还是对DEC的沿用。这里给出公式,不再赘述:
    • Multi-view graph decoder

      在该模块,仅构造了一个decoder去恢复m个视图对应的图的输入。本文采用的是分别对每个视图的A^{(m)}进行重构,其损失函数写成: 关于视图m,其计算如下\tilde{A}^{(m)}=Sigmoid(z^{(fusion)}w^{(m)}z^{(fusion)T})
    • Joint loss

      由于提出的方法是基于图编解码器的框架,因此可以通过一个联合优化目标轻松地实现端到端学习。整体框架的优化包含三个部分的学习目标: 其中,𝜆1、𝜆2、𝜆3是调整各子损失函数之间的权重。

    总体而言,其创新点主要是框架的集成和模块化目标的设计。作为我的梦中情刊,竟然被我发现了好多错误。。。但是不得不说,关于论文的组织结构和语言的组织,都很厉害。
    大量的实验证明了该框架的有效性。特别是关于参数敏感性学习的部分,对z^{(fusion)}的维度,学习率\epsilon,收敛性分析,以及loss的参数(\lambda_1,\lambda_2,\lambda_3)(这里又出现了错误,明明说这3个参数都在[0,1],结果画出的图的坐标竟然。。。截图为证)进行了展示。

    损失函数中权重的敏感性学习

    相关文章

      网友评论

          本文标题:论文阅读“Contrastive and attentive g

          本文链接:https://www.haomeiwen.com/subject/wmyzprtx.html