Yu C, Zhao M, Song M, et al. Hyperspectral image classification method based on CNN architecture embedding with hashing semantic feature[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(6): 1866-1881.
摘要记录
在本文中,作者提出了一种嵌入提取哈希特征的CNN系统,用于利用HSI的语义信息进行HSI分类。首先,构造一系列哈希函数来增强类的局部性和可区分性。然后,由判别学习算法计算的稀疏二进制散列码被组合到原始HSI中。接下来,作者设计了一个具有七个隐层的CNN框架,以获得具有光谱和空间信息的分级特征图用于分类。反卷积层旨在提高所提出的CNN网络的鲁棒性,并用于增强深层特征的表达。提出的CNN分类架构实现了对不同类别的强大区分能力,在各类实验中产生了不错的效果。
tags: 哈希语义特征
主要贡献:
1) 本文提出了一种新的语义特征提取方法,它考虑了特征类别间的局部性和鉴别性学习子空间,并使用紧凑的语义编码对高光谱数据进行编码。通过定义了类内和类内相似度约束,提取的特征通过最大化样本中心距离,为随后的CNN框架提供了显著的分类信息。
2)除了频谱和空间信息外,所提出的CNN分类结构利用提取到原始HSI立方体中的语义特征,具有对不同类别的区分能力,同时探索了卷积特征和语义上下文信息。
3) 采用更简单的CNN网络进行HSI分类,并设计反卷积层来增强深度特征,提高分类框架的鲁棒性。
主要部件介绍
-
哈希函数定义
这里作者对于输入图片通过哈希函数的学习(学习图片的潜在映射空间)转换到目标空间。目标空间的输出与图片的类别进行对应。这里相当于对应一个简单的二分类任务,即哈希函数可以表示为一个示性函数: 哈希学习的目标是最小化投影空间和目标空间的值之间的差异。在使用哈希函数后,同一类中的类内相似性应该很大,而类之间的类内相似性应该减少。因此,为了通过最大化样本中心距离来区分两种类型的类,损失函数定义如下:
- 相似性保留
损失函数设计的基本和重要原则是保持原始HSI空间的相似性。
\color{red{Intraclass Similarity }}
为了使最终的散列映射码具有更好的区分类信息和非类信息,类间的相似性包括同一类和不同类之间的相似性。
(1)首先对于第个类,与非类中心之间的相似度水平定义如下: 这里相当于是对来自类的所有样本求平均得到一个表示,除之外的所有类别也会对应一个。在计算中为了考虑其余所有类别的信息,在各的基础上进一步求取了平均表示。上式中应该是数据集中包含的所有类别的个数,因此即代表除当前类别之外的其他类别数。得到相对应的表示之后,可以进行哈希映射,即。因此,对于cb1而言,其值域也是一个0,1取值的数。
(2)此外,和之间的相似性定义如下: 给定当前类别,不同于在一个式子中考虑其余所有类别的类中心表示,cb2则是对其余类别进行两两的相似度计算进行叠加。这种做法放大了其余每个类别对当前距离测算的影响。因此,其值域也由cb1的{0,1}放大到了0到p-1之间的自然数。
Within-Class Similarity
同理,通过计算三种类型的距离来衡量类内的相似性。
(1)由于同一类中样本之间的局部性将具有相同的原始特征, 因此,这里测算的是类内的每个样本与该类簇中的表示进行哈希映射后的距离。cw1的值域为0到之间的自然数。类内的样本表示越接近,则该值越接近于0。
(2)另一方面,为了强调空间特征对局部邻域的影响,通过计算与邻域之间的距离来衡量类内相似度。 这点就是进一步考虑了的领域信息。
(3)对于非类的其余类别,作者将其记为类。对于其中的所有样本,设计如下距离来衡量样本与之间的类内相似性如下: 这里的计算与cb1中的计算类似。 - 损失函数
因为其相似性和距离定义相反,因此在损失函数优化时,这里计算的是距离的最大化。
但是最终在实验的步骤中,作者使用了一种被证明可以获得更好结果得近似优化方法。即移除了哈希函数中得sgn函数,将原始得哈希学习 转化为如下得计算 重新定义 最终可以写成 同理计算其余cw和cb,总体目标函数可以重新写成 并引入拉格朗日乘数发进行求解。
以上。
...虽然写的很乱吧,但是确实为分类聚类任务提供了新思路。。
网友评论