美文网首页
论文阅读“Multi-level Feature Learnin

论文阅读“Multi-level Feature Learnin

作者: 掉了西红柿皮_Kee | 来源:发表于2022-06-27 14:42 被阅读0次

Xu J, Tang H, Ren Y, et al. Multi-Level Feature Learning for Contrastive Multi-View Clustering[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 16051-16060.

摘要梳理

(1)多视图聚类用于挖掘多个视图时间的共同语义,已经获得了广泛的关注。
(2)现有的方法在同一个特征空间中优化多个目标,忽略了学习一致性通用语义和构建不一致的视图特有信息之间的冲突。
(3)因此,本文提出multi-level feature learning framework用于contrastive multi-view clustering 。
(4)提出的方法在不融合的前提下从原始特征中学习low-level, high-level以及semantic labels/features,因此可以实现在不同的特征空间中优化重构目标和一致性目标。
(5)具体来说,重构损失是以low-level特征构建的,两个一致性目标则对应于high-level和semantic labels/features,分别用于探索通用的语义信息和实现多视图聚类。提出的方法可以减少视图特有特征的不利影响。

贡献点

  • 在不同的特征空间优化不同的目标,解决了重构和一致性目标之间的冲突
    这样可以有效的学习通用的语义同时避免无意义的视图特有信息的影响
  • 使用灵活的多视图对比框架同时实现了high-level features and the semantic labels的一致性学习
模型浅析

原始特征:多视图数据集\{X^m \in \mathbb{R}^{N \times D_m}\}_{m=1}^M表示包含在M个视图上的N个样本,其中x_i^m \in \mathbb{R}^{D_m},表示m-th视图的数据维度为D_m

整体框架图:
  • high-level features
    由重构损失优化所得到的表示\{Z^m\}_{m=1}^M因为混合了通用语义和视图特有的信息,因此这部分被称为 low-level features 。在此基础上,本文堆叠了一个MLP来学习 high-level features \{H^m\}_{m=1}^M,用于在所有视图中学习通用的语义。这一部分主要利用视图间同一样本的对比来学习各视图一致通用的语义表示信息,具体做法如下: 最终所期望的结果是 high-level features所对应的类簇更加接近于真是的语义类簇。
  • semantic labels
    同理,使用一个堆叠的共享MLP学习\{Q^m \in \mathbb{R}^{N \times K}\}_{m=1}^M,最后一层使用softmax激活以获得样本在每个类簇的软分配概率,q_{ij}^m即为i-th的样本在第m个视图中属于类簇j-th的概率。为了聚类性能的鲁棒性,需要实现聚类表示的一致性,这部分还是利用对比学习约束标签软分配之间的一致: 第一项与high-level features的优化目标相同,第二项则是一个正则项用于避免所有的样本都被划分到同一类簇中。
  • overall
    总体来说,三个部分构造了不一样的特征空间用于各自语义的优化,可以表示为如下: 其中,AE的Encoder部分的参数\{\theta\}_{m=1}^M是由三部分共同优化的,同时各自也还有其他需要学习的参数。
  • Semantic Clustering with High-level Features
    到此为止,High-level Features和label Semantic 的学习是相互独立的,因此以\{Q^m \in \mathbb{R}^{N \times K}\}_{m=1}^M为锚点,利用高阶语义信息提升聚类的性能。
    (1)对\{H^m \in \mathbb{R}^{N \times H}\}_{m=1}^M使用K-means进行聚类,得到关于K个类簇中心的表示\{c_k^m\}_{k=1}^K 每个样本的类簇分配p^m \in \mathbb{R}^N表示为:
    (2)将label MLP的输出同样记录为l^m \in \mathbb{R}^N,其中l_i^m=argmax_j~q_{ij}^m。若l^mp^m表示的类簇不能对应,则没有任何价值。由于semantic label之前是做过一致性对比学习的,因此l_i^ml_i^n代表同样的类簇。
    (3)基于semantic label的前提,本文以l^m为锚点来修正p^m,即最大化如下的匹配: 其中,M^m是一个代价矩阵,M^m=max_{i,j}~\tilde{m}_{ij}^m-\tilde{M}^m\tilde{M}^m中的每个元素\tilde{m}_{ij}^m=\sum_{n=1}^N\mathbb{I}[l_n^m=i]\mathbb{I}[p_n^m=j],即数据集中所有样本中在label MLP中被分配到i-th类簇,同时high-level features在K-means聚类中被分配到j-th的样本数量之和。\mathbb{I}(\cdot)是个指示函数,[]内条件成立则值为1。
    被修正的i-th样本的类簇分配\hat{p}_i^m \in \{0,1\}^K是一个K维的one-hot向量。其中\hat{p}_i^m中为1的元素满足:k=k~\mathbb{I}[a_{ks}^m=1]\mathbb{I}[p_i^m=s]即在A^m矩阵中第ks列的元素等于1,且在high-level features在K-means聚类中该样本被分配到s-th类簇中。
    (4)基于修正的\hat{p}_i^m和label MLP的输出Q^m,使用如下的交叉熵对模型进行微调: 这样学习到的语义被用于提升聚类。
    (5)其最终的分配结果表示为: 还是由Q^m来主导,(4)中的操作仅是为了模型的微调。

因为最后的模型是在label MLP的输出上进行聚类的最终分配。
在消融实验中,Contrastive learning structures包含了框架中涉及到对比学习的损失QH(因为Q代表的聚类分配,因此在每轮的对比中都含有Q),而是否使用Z进行视图特征重构也成为了模型的一个对比点。

相关文章

网友评论

      本文标题:论文阅读“Multi-level Feature Learnin

      本文链接:https://www.haomeiwen.com/subject/zuynvrtx.html