https://www.youtube.com/watch?v=W7PHoPg2Ke
verification -> open; classification -> closed compare a instance with the compare a pair of instances with the same classification labelhttps://blog.csdn.net/u014380165/article/details/76946339
Stacked Similarity-Aware Autoencoders cartesian -> polar coordinate那么center loss到底是什么呢?先看看center loss的公式LC。cyi表示第yi个类别的特征中心,xi表示全连接层之前的特征。后面会讲到实际使用的时候,m表示mini-batch的大小。因此这个公式就是希望一个batch中的每个样本的feature离feature 的中心的距离的平方和要越小越好,也就是类内距离要越小越好。这就是center loss。
网友评论