美文网首页
AlignedReID: Surpassing Human-Le

AlignedReID: Surpassing Human-Le

作者: whenIknow | 来源:发表于2018-05-07 15:06 被阅读0次
    摘要

    该论文提出了一种新的叫做对齐重识别的方法,它通过计算两个本地特征的最短路径实现。在对齐后,使用全局特征计算图片相似度。

    发展

    重识别最开始基于颜色,形状和局部鉴别器识别,深度学习再次兴起后则主要用深度学习实现。有的把人体分块进行局部学习,有的对姿势进行估计(但需要额外的标签和步骤)。本文提出方法在学习过程中自动部分对齐,在学习时,它有两个分支分别学习局部和整体的特征。在局部分支,通过最短路径损失进行部分校准,但在推断阶段舍弃了局部分支只保留了全局特征。

    本文方法

    只生成一个全局特征,使用L2距离作为相似度量,


    对每张图片先使用一个CNN,resnet-50提取特征;对局部特征,一个水平方向上的池化(是一个全局的水平池化)被用来提取局部特征,然后使用1x1的卷积减少通道数目,最后一幅图像由一个全局特征和H个局部特征表征。对于局部距离,作者从顶到底动态匹配局部部分通过最小化总距离找到对齐。



    作者选用了TriHard loss(In Defense of the Triplet Loss for Person Re-Identification)作为度量学习损失,之所以使用全局距离挖掘难样本是因为计算全局距离比局部距离更快,并且两者在实际效果上没有太大不同。

    Mutual Learning for Metric Learning

    度量学习框架:



    作者也采用了互学习来训练模型(Deep mutual learning)。另外考虑了使用Combining softmax loss with metric learning loss来加速收敛,所以作者整合分类损失和度量损失作为总的损失。

    实验

    在 Market1501、CUHK03表现优于人类,与其它ReID相比,作者同时使用了相互学习和re-ranking。
    实现细节:模型图上提供了网络结构,参数见原论文。

    点评

    这篇论文首次实现了重识别率高于人类,意义非凡。
    关键点:
    1)对齐 (8%)
    2)mutual learning (3%)
    3)classification loss, hard triplet
    4)re-ranking (5~6%)

    相关阅读:

    https://arxiv.org/pdf/1711.08184.pdf(原文)
    https://blog.csdn.net/qq_21190081/article/details/78417215(TriHard loss)
    https://blog.csdn.net/qq_14845119/article/details/77008693(re-ranking)

    相关文章

      网友评论

          本文标题:AlignedReID: Surpassing Human-Le

          本文链接:https://www.haomeiwen.com/subject/ssyurftx.html