Wen J, Zhang Z, Zhang Z, et al. Dimc-net: Deep incomplete multi-view clustering network[C]//Proceedings of the 28th ACM International Conference on Multimedia. 2020: 3753-3761.
摘要导读
本文提出了一个深度不完整多视图聚类网络。主要包含视图特有的编码器以捕获不同视图的局部特征,为了减少缺失样本的负面影响引入了带权重的融合层,最后是一个可学习的聚类层以获得聚类友好的共识表示。该算法可以很好的处理不同情况下的视图不完整问题。
- 引入了视图之间的图嵌入参与预训练
- 自编码+图嵌入+KL聚类学习
这篇论文是CDIMC的姊妹篇,基本的模型结构式完全一致的,只是在聚类模块进行了调整。
模型浅析

DIMC-net包含四个部分:对应多视图的编码器,带权重的融合层,图嵌入以及一个聚类层。
- view-specific encoder networks
该模块是常规操作,用于学习不同视图中重要的视图特有的特征和结构信息。在该网络的输入层,那些视图缺失的样本使用全零向量表示。因此,给定样本,其对应的隐含表示为:
。
- Weighted fusion layer
该层用于对前序得到的隐含表示进行融合以产生共识的表示。假设代表在每个视图中样本的缺失情况,
代表第
个样本在第
个视图可见。对于任意样本
,其共识表示为:
作者指出,引入一个如上的权重融合层,那些缺失的视图在模型训练中不会参与运算。因此,可以为这些缺失视图填入任意的值。
- Graph embedding
在无监督学习中,相似的样本通常被期望在隐空间中也是类似的。基于此,本文在共识hidden表示中施加了近邻样本图约束:其中,
是由原始视图样本表示
预先构建的相似图。并且为了避免引入不确定的局部信息,所构建的k近邻图满足如下条件:
该方式可以在捕获高级特征的同时保留数据的几何结构,可以使得网络学习更具有辨别性的共识表示。
值得指出的是,在大规模数据集中,基于batch的训练模式很难探索所有样本的近邻关系。因此,本文并没有构建全局的图约束,而是在每个batch的数据中使用了局部优化是全图
的子图。
-
前面三个部分聚焦于学习共识表示,但没有保证所学到的表示适用于聚类。在DIMC-net的最后一层作者引入了深度聚类层,以达到学习适合于聚类的表示并直接产生聚类结果
这个聚类损失在很多地方都用到了所以这里不进行赘述。
-
Overall objective function
整体网络的损失为:
实现细节
-
对于模型的预训练
- 使用k-means进行类簇中心的初始化和目标分布
的初始化
网友评论