Xu J, Li C, Ren Y, et al. Deep Incomplete Multi-view Clustering via Mining Cluster Complementarity[C]. AAAI2022.
摘要导读
现有不完整多视图聚类存在两点限制:
(1)对缺失数据进行不正确的推断或者填充可能会对聚类产生负面的影响;
(2)融合后特征的质量可能会受到低质量视图的影响。
针对以上问题,本文提出了一种imputation-free 和 fusion-free的IMVC框架。主要贡献包含以下:
- 这种无推断和无融合的方式可以避免由推断错误带来的噪声信息以及低质量视图的干扰
- 提出通过多视图的非线性映射来挖掘高维特征空间中的互补信息。此外,本文还通过Cover假设和高维线性可分定理,展示了实现多视图聚类互补性和聚类一致性的机制。
- 设计了(EM-Like)交替优化的策略实现对特征和聚类的优化。
模型浅析
数据定义:
给定包含个样本的数据集,其中代表样本的数目,因为包含缺失数据,因此。本文中把数据集中包含的完整数据作为一个集合。
视图1和视图2中最下的蓝色部分是完整数据,这部分的数据包含给定的全部视图表示。而视图1最上的样本集合仅包含视图1的表示,同理视图2中间的样本也仅包含当前视图表示。也就是说,在数据表示中完整样本是视图对齐的。(这里的解释和论文intro中的关于数据的定义完全不对应。。所以后续的样本对应和拼接的解释很牵强。。。。)
但是论文中的解释,对于每个视图的数据而言,这里给出了一个示意图:
- Deep model of feature learning and clustering
由上图可见,本文为每个视图都设计了一个深度自编码器。这里参与运算的是每个视图中包含的数据(即完整数据和不完整数据,这里没交代不完整数据是如何填充的,暂时理解为零padding)每个视图的重构损失为: 对于学习到的embedding表示之后,进行聚类中心的学习。并且根据映射学习该视图中样本到类簇的分配概率: 显然这部分的特征学习和聚类分配是各视图独立的,因此下面模块的主旨是探索视图之间的互补信息。 - Multi-view cluster complementarity
该部分主要利用了假设:一个复杂的分类问题被非线性映射投影到一个高维空间时,这些数据更有可能是线性可分的。
基于该假设,本文将embeddings映射到一个串联的加权特征空间(CWFS): 第一个红圈的加权拼接我没太明白是怎么对应的,因为对于不同的视图而言,其包含的数据可能是不一致的,所以笔者这里不太明白这里的拼接方式。第二个红圈的权重计算是可以借鉴的,相当于引入了分配类簇中心表示的可分性。
并通过最小化如下的损失函数: 获取到新的类簇中心。 - Multi-view clustering consistency
由于多视图类簇之间的互补性,基于计算的质心反映了更准确的类簇结构信息。本文将其转换为一种全视图共享的监督信息: 其中,表示集合中所有样本点的被表示为维的向量。式子中的满足,是一个布尔矩阵来调节的分配。
为了约束得出的置信度在,被重新计算: 将挖掘出的互补聚类信息转化为具有高置信度的监督信息。
得到监督信息之后,就可以使用和之间的交叉熵损失进行模型参数的优化:
尽管这里是对中的完整数据进行的优化,但是,通过深度模型,可以将完整数据的一致性推广到不完整数据。
在对模型进行训练后,本文可以对观测数据的聚类分配进行平均,以获得稳健的结果。
值得注意的是,提出的方法训练的模型是无融合的,因为每个视图都有自己的聚类预测,并且不依赖于多个视图的特征融合。
怎么说,因为自己太菜了,所以看的云里雾里的。在模型训练的始末都没有涉及到关于missing data的处理,其实我挺懵的,还有对样本的对应关系也没厘清。。。之后再进行修正吧。。
网友评论