美文网首页
论文阅读“Spectral Clustering via Ens

论文阅读“Spectral Clustering via Ens

作者: 掉了西红柿皮_Kee | 来源:发表于2021-11-11 11:14 被阅读0次

Affeldt S, Labiod L, Nadif M. Spectral clustering via ensemble deep autoencoder learning (SC-EDAE)[J]. Pattern Recognition, 2020, 108: 107522.

摘要翻译

近年来,许多研究研究了经典聚类算法和深度学习方法相结合的聚类策略。这些方法要么遵循一种顺序的方法,即使用深度自动编码器学习深度表示,然后使用k-means进行聚类;要么采用一种同步的方法,其中深度表示和聚类通过优化单个目标函数共同学习。这两种策略都提高了聚类性能,但这些方法的鲁棒性受到了一些深度自动编码器设置问题的阻碍,其中包括权值初始化、层的维度和层数或迭代的数量。为了减轻这种超参数设置对聚类性能的影响,作者提出了一个新的模型,它将谱聚类和深度自编码器的优势结合在一个集成学习框架中。在各种基准数据集上进行的大量实验表明,与最先进的深度聚类方法相比,该方法具有潜力和鲁棒性。

谱聚类

谱聚类利用从数据点之间的距离推导出的对称矩阵的特征向量聚类。基于一个目标函数将X∈R^{n×d}n个数据点划分为k个不相交的聚类,有利于类簇间的低相似性和类簇内的高相似性。在其归一化版本中,谱聚类算法利用归一化图拉普拉斯L的前k$个特征向量(提供每个数据点的指标向量的分配)。它相当于最大化以下放松的正则化关联:

S=D^{−1/2}KD^{−1/2}∈R^{n×n}是归一化相似矩阵,其中K∈R^{n×n}是相似矩阵,D∈R^{n×n}是对角矩阵,其X_{(i,i)}元素是X的第i行的和。上式子的解是设置B∈R^{n×k}等于S的最大的k个特征值和其对应的k个特征向量。在将B的每一行进行重新正则化,一个k-means将X的每个数据点x_i分配等价于B中的每一行b_i所对应的类簇分配。

与其他几种聚类算法(如k-means)不同,谱聚类在任意形状的数据上表现效果都很好。然而,该方法的一个局限性是由于图的拉普拉斯构造和特征分解的高复杂性,难以处理大规模数据集。针对这个特点,有人提出将每个数据点都表示为p个具有代表性的数据点的线性组合(p\ll n)。由此,数据表示X \in R^{n×d}可以表示为\hat{Z} \in R^{p×n},其中计算了n个数据点和p个代表性数据之间的亲和度,该矩阵是是稀疏的,从而确保了比上述S的特征分解更方便有效。

模型简记
模型形式化

给定数据矩阵X \in R^{n×d},首先使用m个不同超参数的DAE进行训练,得到中间层表示\{Y_l \}_{l \in [1, m]}。然后通过每个Y_l构造一个图相似度矩阵S_l并将其融合成一个集成的图相似矩阵S。最后,在S上应用谱聚类方法。

Deep embeddings generation

m个AE的结构和训练与训练单个无差异,关键在于m个AE的参数各不相同,以学习不同程度的高阶表示。这里进行赘述。至于参数的设置,可以去原论文中查看。

Graph matrix construction

在这一部分,作者使用了LandmarkAnchor的思想对原始的n个表示进行了转换。

  • 关于Landmark-\{u^l_j\}_{}的选择
    通过在各AE中间层矩阵\{Y_l \}上的kmeans聚类得到了一组类簇中心点p, p \ll n。这些点是接近邻域结构的Landmark
  • 可以通过以下公式对中间层表示进行转化:

    其中,N_{(i)}表示\{Y_i^l \}附近的r(r<p)个最近的Landmark。当Landmark - u^l_j不在\{Y_i^l \}的最近邻中时,我们将z_{ij}^l设置为零,得到一个稀疏亲和矩阵Z^l
  • 得到S_l
  • Ensemble of affinity matrices
    虽然说了很多,但整体的方式竟然采用了多个亲和度矩阵平均的方式:
    作者将它叫做双随机的块相似矩阵。现在,作者便可以使用较低的成本计算由m个图矩阵S_l共享的B,并通过优化以下最大化问题:
优化算法

在优化算法中,作者也给出了相应的技巧,求取了左奇异矩阵。
(之后在来填坑)


相关文章

网友评论

      本文标题:论文阅读“Spectral Clustering via Ens

      本文链接:https://www.haomeiwen.com/subject/wwfizltx.html