美文网首页
论文阅读“Self-Supervised Deep Multi-

论文阅读“Self-Supervised Deep Multi-

作者: 掉了西红柿皮_Kee | 来源:发表于2020-08-06 19:20 被阅读0次

    摘要:
    作为一种新兴的无监督方法,多视图聚类为研究多视图数据中的隐藏结构提供了一种好方法,并在机器学习和数据挖掘领域引起了广泛关注。一种流行的方法是识别用于捕获多视图信息的公共潜在子空间。但是,由于不受监督的学习过程,这些方法仍然受到限制,并且从不同的角度来看,它们受到大量嘈杂信息的困扰。为了解决此问题,我们提出了一种新颖的多视图子空间聚类方法,称为自监督深度多视图子空间聚类(S2DMVSC)。它将频谱聚类和相似性学习无缝集成到深度学习框架中。S2DMVSC有两个主要优点。一种是可以充分利用聚类结果来监督每个视图的潜在表示学习(通过分类损失)和多个视图的公共潜在子空间学习(通过频谱聚类损失)。另一个是数据对象之间的亲和度矩阵是根据high-level和聚类驱动的表示自动计算的。在包括原始功能和多个手工功能在内的两种情况下进行的实验,证明了所提出方法相对于最新基准的优越性。

    by fully exploiting the complementary and consistency among different views
    focus on multi-view clustering(no supervised information to guide the learning process)

    • S2DMVSC具有通过设计自我监督框架来获得更好的潜在表示的能力。
    • 通过在编码器和解码器之间设计一个自表达层,S2DMVSC可以无缝捕获多个视图之间的关系。
    • S2DMVSC将亲和性学习和频谱聚类集成到一个统一的框架中,可以消除不完善的相似性指标并进一步提高最终聚类性能。
    • S2DMVSC模型的实验在多个图片数据集上进行,并取得了很好的效果。
    S2DMVSC.png

    模型拆分理解:
    -关于多视图数据的子空间聚类的自表示方法应用:

    Self-expressive-based.png

    在关于自表示的过程中,作者首先引入的是关于多视图数据中子视图的自表示学习,为了更好的利用来自多个视图间的补充信息,改而去学习“view-shared self-expressive”见公式(2)。这部分对应于S2DMVSC中的“view-shared self-expressive layer”。从模型的示意图中可以看到,在此layer中,输入是来自AE不同视图encoder的输出,通过学习子空间统一表示的C矩阵,再将输出喂入AE的decoder中。

    -AE:encoder & decoder

    view-shared self-expressive+AE(v).png

    利用AE的重构性质来学习关于特定视图v的潜在表示z,并且将关于v的重构误差加入损失函数中。在训练过程中,这部分需要进行预训练来保证模型参数初始化的可行性。通过AE关于特定视图的学习以及对共享视图的自表示学习,可以学习到统一子空间的表示形式C,以此构造亲和力矩阵S用于谱聚类得到聚类结果进行整个模型的自监督部分。
    这部分对应于S2DMVSC中的“Representation learning part”,以及连接“view-shared self-expressive layer”的部分,并且通过“view-shared self-expressive layer”可以得出本轮的C矩阵,从而提供给“Spectral clustering part”用于自监督信息的生成。

    -监督信息的生成和使用

    AE的encoder除了连接其decoder和自表示学习的layer部分,还用于连接“a two-layer fully-connected classifier”。在设计上,作者将这部分(two-layer FC classifier)分为了两个大的部分进行输入:一部分是关于k个不同的视图表示,另一部分是关于视图共享的表示部分。其输出层对应于Y属于R(n*c)。下附数据集设定: dataset-discribe.png

    同时这部分的计算需要添加“spectral clustering part”的结果进行监督,而这部分的信息来自之前所提到的“view-shared self-expressive layer”输出的C计算得到“spectral clustering part”的输入--亲和力矩阵S。

    spectral clustering part.png
    通过这个部分的算法,我们可以学习到矩阵Q。作者在得到Q的基础上用于监督“view-shared self-expressive”,并且通过对Q的每一行使用了k-means算法来得到“binary clustering label”,这里来对应“unified FC classifier”的输出Y。因此我们可以生成自监督分类部分的损失函数CEC, CEC.png CEC-info.png

    第一个交叉熵损失项可确保伪标记Y和聚类标记Q保持一致,第二个中心损失项可最大程度地减少集群内变化。


    整体的模型图分析就是这样。

    模型训练过程:

    • 对于多视图AE的部分先进行预训练,并初始化网络参数。
    • 随机初始化模型的其余part
    • 利用约束式对模型进行更新

    相关文章

      网友评论

          本文标题:论文阅读“Self-Supervised Deep Multi-

          本文链接:https://www.haomeiwen.com/subject/tgdvrktx.html