美文网首页
论文阅读“Deep Incomplete Multi-view

论文阅读“Deep Incomplete Multi-view

作者: 掉了西红柿皮_Kee | 来源:发表于2022-06-01 17:28 被阅读0次

    Xu J, Li C, Ren Y, et al. Deep Incomplete Multi-view Clustering via Mining Cluster Complementarity[C]. AAAI2022.

    摘要导读

    现有不完整多视图聚类存在两点限制:
    (1)对缺失数据进行不正确的推断或者填充可能会对聚类产生负面的影响;
    (2)融合后特征的质量可能会受到低质量视图的影响。
    针对以上问题,本文提出了一种imputation-free 和 fusion-free的IMVC框架。主要贡献包含以下:

    • 这种无推断和无融合的方式可以避免由推断错误带来的噪声信息以及低质量视图的干扰
    • 提出通过多视图的非线性映射来挖掘高维特征空间中的互补信息。此外,本文还通过Cover假设和高维线性可分定理,展示了实现多视图聚类互补性和聚类一致性的机制。
    • 设计了(EM-Like)交替优化的策略实现对特征和聚类的优化。
    模型浅析

    数据定义:
    给定包含N个样本的数据集\{X^v \in R^{N_v \times D_v}\}_{v=1}^V,其中N_v代表样本的数目,因为包含缺失数据,因此N_v \leq N。本文中把数据集中包含的完整数据作为一个集合\mathcal X

    根据给出的定义,笔者认为文章中所涉及到的数据集应该仅包含缺失视图的情况。即对于两视图数据而言,

    视图1和视图2中最下的蓝色部分是完整数据,这部分的数据包含给定的全部视图表示。而视图1最上的样本集合仅包含视图1的表示,同理视图2中间的样本也仅包含当前视图表示。也就是说,在数据表示中完整样本是视图对齐的。(这里的解释和论文intro中的关于数据的定义完全不对应。。所以后续的样本对应和拼接的解释很牵强。。。。)

    但是论文中的解释,对于每个视图的数据而言,这里给出了一个示意图:

    其中,2代表的是该视图中缺失的样本,3代表的是该视图中完整的样本,1是指样本的样本表示中存在某些维度的缺失。(笔者认为这种解释没办法和intro中关于数据的定义对应,所以一顿迷茫)所以我觉得关于完整视图的对应(模型图中的红框),maybe是错误的,至少完整视图的数据应该是在同样的位置,这样才可以在后续的操作中进行拼接H=[\cdot, \cdot]
    • Deep model of feature learning and clustering
      由上图可见,本文为每个视图都设计了一个深度自编码器。这里参与运算的是每个视图中包含的数据(即完整数据和不完整数据,这里没交代不完整数据是如何填充的,暂时理解为零padding)每个视图的重构损失为: 对于学习到的embedding表示Z^v之后,进行聚类中心的学习U^v。并且根据\mathcal{M}(Z^v;U^v)映射学习该视图中样本i到类簇j的分配概率q_{ij}^v: 显然这部分的特征学习和聚类分配是各视图独立的,因此下面模块的主旨是探索视图之间的互补信息。
    • Multi-view cluster complementarity
      该部分主要利用了假设:一个复杂的分类问题被非线性映射投影到一个高维空间时,这些数据更有可能是线性可分的。
      基于该假设,本文将embeddings映射到一个串联的加权特征空间(CWFS): 第一个红圈的加权拼接我没太明白是怎么对应的,因为对于不同的视图而言,其包含的数据可能是不一致的,所以笔者这里不太明白这里的拼接方式。第二个红圈的权重计算是可以借鉴的,相当于引入了分配类簇中心表示的可分性。
      并通过最小化如下的损失函数: 获取到新的类簇中心C
    • Multi-view clustering consistency
      由于多视图类簇之间的互补性,基于H计算的质心C反映了更准确的类簇结构信息。本文将其转换为一种全视图共享的监督信息: 其中H \in \mathbb{R}^{|{\mathcal{X}}| \times \sum_{v=1}^V} \to P \in \mathbb{R}^{|{\mathcal{X}}| \times K},表示\mathcal{X}集合中所有样本点的被表示为K维的向量。式子中的A满足AA^T=I_K,是一个布尔矩阵来调节S的分配。
      为了约束S(H,C)得出的置信度在[0,1]s_{ij}被重新计算: 将挖掘出的互补聚类信息转化为具有高置信度的监督信息。
      得到监督信息P之后,就可以使用PQ^v之间的交叉熵损失进行模型参数的优化:
      尽管这里是对\mathcal{X}中的完整数据进行的优化,但是,通过深度模型,可以将完整数据的一致性推广到不完整数据。
      在对模型进行训练后,本文可以对观测数据的聚类分配进行平均,以获得稳健的结果。
      值得注意的是,提出的方法训练的模型是无融合的,因为每个视图都有自己的聚类预测,并且不依赖于多个视图的特征融合。

    怎么说,因为自己太菜了,所以看的云里雾里的。在模型训练的始末都没有涉及到关于missing data的处理,其实我挺懵的,还有对样本的对应关系也没厘清。。。之后再进行修正吧。。

    相关文章

      网友评论

          本文标题:论文阅读“Deep Incomplete Multi-view

          本文链接:https://www.haomeiwen.com/subject/gnkxmrtx.html