美文网首页
Recitation 6 | Face Classificati

Recitation 6 | Face Classificati

作者: Ysgc | 来源:发表于2019-10-25 11:47 被阅读0次

    https://www.youtube.com/watch?v=W7PHoPg2Ke

    verification -> open; classification -> closed

    https://medium.com/@zurister/depth-wise-convolution-and-depth-wise-separable-convolution-37346565d4ec

    compare a instance with the compare a pair of instances with the same classification label

    https://blog.csdn.net/u014380165/article/details/76946339

    那么center loss到底是什么呢?先看看center loss的公式LC。cyi表示第yi个类别的特征中心,xi表示全连接层之前的特征。后面会讲到实际使用的时候,m表示mini-batch的大小。因此这个公式就是希望一个batch中的每个样本的feature离feature 的中心的距离的平方和要越小越好,也就是类内距离要越小越好。这就是center loss。

    Stacked Similarity-Aware Autoencoders cartesian -> polar coordinate

    相关文章

      网友评论

          本文标题:Recitation 6 | Face Classificati

          本文链接:https://www.haomeiwen.com/subject/vkfsvctx.html