论文 | FaceNet脸部识别《FaceNet:A unifi

作者: 与阳光共进早餐 | 来源:发表于2018-07-04 09:47 被阅读27次

    一 写在前面

    最近在学图像检索这一方面的内容,所以挑了两篇比较经典的论文来学习:

    两篇论文分别是contrastive loss和triplet loss的应用。

    之前已经写了第一篇文章的总结论文 | 图像检索经典论文解读《Learning visual similarity for product design with convolutional neural networks》,现在把FaceNet这篇也看掉了,所以趁热整理一下。

    二 文章简介

    1 整体介绍

    1. 首先看题目就可以知道,文章提出了一个FaceNet结构,可以用于脸部识别和聚类的统一嵌入网络。
    2. 简单来说就是可以学习每张人脸的欧几里德距离,取两张人脸图像欧几里德距离的L2范式的平方就可以直接对应于这两张人脸图像之间的相似性。
      • L2的平方小,相似度高;
      • L2的平方大,相似度低;
    3. 得到嵌入距离之后就可以很快的解决一下问题:
      • face verification: 人脸验证,设置一个阈值,距离小于阈值即可;
      • face recognition: 人脸识别,可以用k-NN邻近算法;
      • face clustering:人脸聚类,可以用k-means等算法;

    跟之前那篇论文一样,本质在于学习到图像的表示,所以论文题目称之为统一的嵌入网络。

    如下图展示的是人脸验证


    得到2张人脸的相似度,小于阈值1.1即判定为同一个人。

    2 文章主要贡献

    文章主要完成了FaceNet这样一个用于学习人脸图像特征的模型,主要有以下几点:

    1. 直接用CNN网络进行端到端的训练;
    2. 使用了triplet loss,并提出了比较好的triplet 样本挖掘方法;
    3. 仅仅用128字节的大小表示人脸就达到state-of-art 水平。

    这里我主要总结了网络结构部分的内容,其他的内容感兴趣的小伙伴可以再点击最下面的参考文献阅读原文~~~

    三 网络结构介绍

    1 模型结构


    如上图所示即为模型的整体结构。

    • 假设我们先不管中间DEEP ARCHITECTURE的具体结构,还是将其作为一个黑盒子f(x)。

    • 输入人脸图像数据x,通过深度CNN之后就会得到一个f(x),再对其做L2归一化之后就可以得到对这张人脸的表示embedding

    • 然后用triplet loss(anchor, positive, negative)方法对这整个模型进行端到端的训练。

    接下来我会具体介绍网络模型中的各个部分。

    2 triplet loss

    1. 宏观理解

    • 对于一组triplet sample(anchor, positive, negative);

    • 我们旨在通过神经网络的训练与学习让(anchor,positive)的距离变小,让(abchor,negative)的距离变大;

    2. 函数建模

    • 我们用(Xa,Xp,Xn)来表示一组数据;
    • 我们希望满足以下条件:


    • 对于任意一组数据,我们都希望(anchor,positive)之间的距离+margin < (anchor,negative)之间的距离;

    3. loss function

    • 根据上面的式(1), (2),我们可以得到如下的损失函数:


    • 我们的目标就转变为训练网络模型使得上式(3)的loss function不断变小。

    3 triplet 样本选择

    1. 目标

    • 如何选择triplet sample对于模型的训练以及最后的结构都非常重要;
    • 因此本文提出了 一种用于寻找较好triplet sample的方法,旨在让triplet的难度随着网络的训练而逐渐增加;

    2. hard triplet

    • hard triplet指的就是那些比较难判断的sample,体现在anchor与正样本的距离较大,anchor与负样本的距离较小;

    • 这样能够训练网络模型识别的难度;

    • 所以用数学表示,即我们希望能够找到这样的postive与negative:

    3. 难点

    • 对于每一个anchor,都想选择一个hard triplet是有难处的;
    • 首先在所有的训练集合内是选择最难的positive与negative是不现实的,需要耗费大量的时间与计算;
    • 其次这样选出来的很可能是错误标记或者是不良成像的图像,反而会导致training的过程并不好;

    4. 解决方法

    我们直观可以想到以下两种策略:

    • 每n步线下生成:用最近一次训练好的网络在训练集的自己种选择argmax的positive以及argmin的negative
    • 线上生成:在mini-batch中选择hard positive/nagative;
    • 本文做了两部分的实验,但是文中展示出的用的是线上生成的方式,线下生成的没有给出结果展示。

    4 CNN网络结构

    文章一共探索了两种神经网络:

    • zeiler & Fergus model (NN1)
    • GoogleNet Style Inception model (NN2)
    • 两个网络都能接受[220,220,3]的输入,输出[1,1,128]维的输出;
    • 这边的细节就不再说了,反正就是一个特征提取网络的选择问题;

    5 其他细节补充

    1. 关于batch内样本分配

    • 为了保证合理性,一定要保证每个triplet sampl都是正负样本的;
    • 先保证每个minibatch中每个identity都有40张positive人脸图像;
    • 再随机将neagtive faces放到minibatch中;

    2. 关于batch_size

    • 在深度神经网梯度下降中,我们希望batch_size不能太大;
    • 在triplet section中我们又希望batch_size不能太小;
    • 最后文章中取了1800/batch;

    3. 关于网络参数

    • 使用SGD优化;
    • 初始learning_rate=0.05
    • margin:α=0.2

    4. 关于semi-hard

    • 如果全部都用hardest sample的话会导致模型坍塌, f(x)趋于0;
    • 训练难度可以由难到简;
    • 也可以选择semi-hard:


    四 写在最后

    就写到这里吧,嘻嘻~~~~~~~~
    ヾ(◍°∇°◍)ノ゙

    希望自己能一直保持写博客的习惯,保持记录的习惯,保持分享的习惯。

    参考文献

    相关文章

      网友评论

        本文标题:论文 | FaceNet脸部识别《FaceNet:A unifi

        本文链接:https://www.haomeiwen.com/subject/nzojuftx.html