美文网首页
2019-12-14

2019-12-14

作者: Carrie_Hou | 来源:发表于2019-12-14 19:29 被阅读0次

    尽管深层人脸识别已从大规模标签数据中受益匪浅,但当前的研究重点是利用未标记的数据进一步提高性能,从而降低人工注释的成本。以前的工作主要是在受控的环境中进行,在这些环境中,根据构造,标记和未标记的数据集没有重叠的标识。在大规模的人脸识别中,这是不现实的,在人脸识别中必须应对这种重叠,而重叠的频率随数据量的增加而增加。忽略身份重叠会导致明显的标记噪音,因为来自同一身份的数据会分成多个群集。为了解决这个问题,我们提出了一种基于极值理论的新型身份分离方法。它被公式化为分布失调检测算法,大大减少了由重叠身份标签噪声引起的问题。将群集分配视为伪标签,我们还必须克服群集错误带来的标签噪音。我们提出了余弦损失的调制,其中调制权重对应于聚类不确定性的估计。在受控和真实环境下进行的大量实验表明,我们的方法相对于有监督的基准具有一致的改进,例如IJB-A验证的改进为11.6%。

    介绍

    得益于大规模的标签数据,深度人脸识别取得了令人印象深刻的性能。例如,DeepFace [38]使用4M标记的面部进行训练,FaceNet [32]使用200M标记的面部进行训练。使用传统的监督学习来进一步提高识别性能可能需要付出巨大的注释努力来增加标记的数据集的体积,这是不切实际的,劳动密集型的并且无法很好地扩展。因此,利用未标记的数据来增加标记的数据,即半监督学习是一种有吸引力的选择。通过聚类未标记的面部来生成伪标签的初步工作已显示在控制设置下可有效改善性能[37,42,44]。

    但是,尽管从未标记的数据中学习是一个成熟的领域,并且在理论上很有吸引力,但是人脸识别这一领域尚未在实际和现实的环境中采用这种方法。直接应用这种技术对于大规模人脸识别的设置存在若干障碍。首先,半监督人脸识别方法的一个普遍假设是,未标记数据和标记数据之间没有类别或身份重叠。但是,这种看似温和的假设违反了半监督学习的基本前提-对未标记集的标记一无所知。因此,从业人员必须手动验证此属性,这意味着数据不再是“真正”未标记的,或者是在标记和未标记的训练数据集之间的标识不相交的情况下进行的,这不可避免地会引入标记噪声。当实际上存在这种重叠的身份时(图1),就性能而言,付出了可观的代价,如本工作中的经验所示。人脸识别中的另一个实际问题是大量标记的人脸数据集的可用性。当前使用无标签人脸的大多数工作都集中在提高使用有限标签数据训练的模型的性能上[42,44],并且尚不清楚当使用大规模标签数据训练基线人脸识别模型时,使用无标签数据集是否有任何好处。

    在本文中,我们提出了利用未标记数据进一步改善完全受监管的最新人脸识别模型的性能的方法,这些模型大多在大规模的标记数据集中进行训练。我们证明,从未标记的面孔中学习确实是提高深度面部识别的实用途径,还可以解决该过程中的重要实际挑战-解释标记和未标记数据之间的重叠身份,以及在对伪标签进行训练时减轻噪声标签的影响数据。

    我们从Face-GCN [42]开始,这是一种基于图卷积神经网络(GCN)的人脸聚类方法,用于在未标记的人脸上获取伪标签。为了解决重叠身份问题,我们观察到重叠和不连续身份的分类置信度分布是不同的–由于我们的初始面部特征是由经过训练的已知身份识别引擎提供的,因此重叠身份图像的置信度得分应为如图3所示,它比不重叠的身份图像要高。基于此观察,我们将问题作为分布失调检测来解决[9,18,20],并建议对置信度得分的分布进行参数化混合了威布尔(Weibus),受极值理论的激励。这就导致了一种无监督的程序,可以即时将重叠的身份样本与未标记的数据分开。

    解决了重叠的身份引起的标签噪声后,聚类算法仍然保留了系统的标签噪声,这是导致人脸识别性能下降的另一个主要原因[40]。代替额外的复杂修剪步骤以丢弃有噪声的样本,例如如[42]中所述,我们通过使用基于训练损失的衰减引入简单的聚类不确定性,以减少训练过程中错误梯度的影响,使用标记和聚类人脸的联合数据来处理再训练循环中的标记噪声。通过嘈杂的标签数据。这有效地简化了重新训练过程,并在我们的实验中显示出明显的性能提升。我们的贡献总结如下:

    –据我们所知,我们是第一个解决聚类期间标记和未标记面部数据之间重叠标识这一实际问题的方法,该方法被称为分布失调检测。

    –我们成功地证明,以半监督方式联合利用大规模未标记数据和标记数据确实可以显着改善监督人脸识别性能,即,在多个公开基准基础上,监​​督CosFace [41]模型可带来实质性收益。

    –我们在半监督学习设置中引入了一种简单且可扩展的不确定性调制训练损失,旨在补偿因聚类过程对未标记数据引入的标记噪声。

    –我们提供有关受控设置和实际设置的广泛且综合的见解,可作为半监督人脸识别或其他大规模识别问题的解决方案。

    人脸聚类:Jain [12]提供了有关经典聚类技术的调查。最近的方法[14,21,22,26,36]应用于从受过训练的识别引擎中提取的面部特征。 “共识驱动的传播”(CDP)[44]通过在未标记样本上形成图形来将伪标记分配给未标记面部。各种网络体系结构的集合提供了未标记数据的多个视图,并且聚合模块决定了正负对。 Face-GCN [42]将人脸聚类问题公式化为聚类提议纯度的回归,可以对其进行完全监督。用聚类的“伪身份”对训练引擎进行重新训练,原始数据可以提高性能,但是,CDP [44]和Face-GCN重新训练假定“伪身份”并且原始身份没有重叠,这并不总是成立。同时,他们的调查停留在使用MS-Celeb-1M数据集[7]进行的受控分布内设置中,这与实际情况相去甚远。相反,我们证明了这些考虑因素对于使用真正的大规模标记和未标记数据集实现实用的人脸识别至关重要。分布外检测:极值分布已用于校准分类分数[29],分类器荟萃分析[31],对对手图像有鲁棒性的开放集识别[2]以及作为来自多个生物特征模型的分数融合的归一化[ 30],这与我们的问题大不相同。分布外检测的最新方法利用了预测后代的置信度[9,20],而Lee等人则采用了这种方法。 [18]使用基于Mahalanobis距离的分类以及基于梯度的输入扰动。 [18]优于其他方法,但不能适应我们的设置-对于人脸识别数据集中典型的长尾类分布,估计每个对象的协方差矩阵是不可行的。

    用标签噪声学习:标签噪声[24]对从在大型数据集上训练的面部识别模型获得的面部嵌入的性能有重大影响,这在Wang等人的研究中得到了广泛的研究。 [40]。实际上,即使是大规模的人类注释面部数据集,例如众所周知的MS 1百万(MS-1M),也显示出一些不正确的标签,并且可以通过清除标签来获得识别性能的提升[40]。将标签噪声模型应用于我们的大规模面部识别问题有其挑战–标记和未标记的数据集是不相交的,早期方法没有考虑这种情况[10,19,27];具有大约100k的身份(通常是长尾身份),使学习标签转换矩阵具有挑战性[10,27];与[1,39,45]中的均匀噪声实验不同,来自伪标记的聚类噪声通常是由深层网络构造并快速存储的。与[13,28]不同,我们的无监督标签噪声估计不需要干净的标签数据集即可学习培训课程,因此可以直接使用。

    3从未贴标签的面孔学习

    形式上,让我们考虑样本X = {xi}i∈[n],分为两个部分:分别为大小为l和u的XL和X U。现在XL:= {x1,...,xl}由带有身份标签YL:= {y1,...,yl}的面孔组成,而我们不知道未标记面孔XU:= { xl + 1,...,xl + u}。我们的方法旨在通过首先对未标记的面部XU进行聚类,然后对XU上的聚类分配进行伪训练(使用XU上的聚类分配进行伪训练)来提高在(XL,YL)上训练的有监督的人脸识别模型的性能标签。图2直观地总结了步骤-(1)在(XL,YL)上训练监督的人脸识别模型; (2)将XU中具有重叠标识的样本与标记的训练集分开; (3)将不相交的身份未标记的面孔聚类; (4)为伪标签数据上不正确的聚类分配的可能性学习无监督模型; (5)在标签和伪标签的面部上重新训练面部识别模型,使用估计的聚类不确定性来减少伪标签样本的训练损失。在本节中,我们首先描述从未标记数据中分离重叠身份样本(第3.1节),然后概述人脸聚类过程(第3.2节),最后使用聚类不确定性的估计值重新训练识别模型。 (第3.3节)。

    3.1分离重叠的标识

    重叠身份。我们通常无法控制未标记数据XU的收集,因此同一主题S可能存在于标记数据中(因此,是训练基础面部识别引擎的类),并且也存在于我们的未标记数据集中,即XU = XUO∪XUD,其中XUO和XUD表示XU的身份重叠和身份不相交的子集。

    默认情况下,聚类会将未标记数据中主题S的图像分配为新类别。在这种情况下,在使用附加的伪标记数据进行重新训练时,网络将错误地学习将受试者S的图像分类为两类。这是一个重要的问题,因为重叠的主题会自然出现在从Internet收集的数据集中,或者通过被动安装的摄像机记录下来,据我们所知,最新的伪标签方法并未直接解决这些问题[37,42,44] 。

    分布外检测。将未标记的数据分为不相交和重叠的类(被标记的数据中的类不正确)的样本的问题可以被认为是“分布失调”的检测问题。直觉是,具有相同身份的未标记样本来自人脸识别引擎的置信度得分更高,因为使用相同的标记数据来训练识别模型[9]。因此,我们在识别置信度分数上搜索阈值,该阈值可以分离不相交和重叠的身份样本。注意,由于归一化导致的数千个类别的softmax运算会导致较小的值,因此我们将每个样本xi∈X U的最大logit zi用作其置信度得分。由于zi是许多类别上的最大值,因此我们可以借鉴极值理论(EVT)的结果,该结论指出iid随机变量的最大值的极限分布属于Gumbel,Fr'echet或Weibull族[ 4]。具体来说,我们使用Weibull分布对zi进行建模,

    其中k> 0和λ> 0分别表示形状和比例参数。我们使用Otsu的方法[25]获得zi值的初始阈值,然后拟合两成分的Wei​​bulls混合物,分别对身份重叠集和身份不相交集XUO和XUD进行建模。在每个威布尔模型下选择与95%置信度相对应的值可提供阈值,以决定xi∈XUO或xi∈XUD是否具有高置信度;我们拒绝超出此间隔的样本。此方法不需要事先设置任何超参数,并且可以应用于任何新的未标记数据集。

    3.2使用GCN将人脸聚类

    我们使用Face-GCN [42]为XUD中未标记的面孔分配伪标签,这利用图卷积网络(GCN)[15]进行大规模的面孔聚类。我们提供了完整方法的简要概述。基于从预训练的面部识别引擎提取的特征,在所有样本上构建最近邻图。通过在该图的边缘权重上设置各种阈值,可以生成一组连接的组件或集群建议。在训练过程中,目标是降低由对象检测框架[8]推动的由单个地面真实身份引起的群集建议的准确性和召回率。由于建议是基于标记的数据生成的,因此与常规GCN训练不同,Face-GCN是以完全监督的方式进行训练的,而常规GCN训练通常针对每个节点或整个输入图进行分类损失。在测试过程中,“去重叠”过程将预测的GCN分数用于提案,以将未标记的数据集划分为一组集群。有关更多详细信息,请参见[42]。

    带聚类不确定性的联合数据再训练

    我们试图将不确定是否正确标记了伪标记(即聚类)样本的不确定性纳入人脸识别模型再训练中。令从未标记数据集得出的面为xi∈XUD。使用基线监督模型对该面部的特征表示表示为Φ(xi)。对于X个群集,令在XUD上获得的群集分配为{C1,C2,...,CK}。对于k = 1,2,... K,我们训练了一个逻辑回归分类器来估计P(Ck |Φ(xi))。

    其中ωk是第k个聚类的分类器权重。直观地讲,我们希望确定具有区别性的人脸描述符之上的简单线性分类器对聚类分配的适应程度。我们比较以下不确定性度量:(1)跨K个簇的后验者的熵,即􏰃kP(Ck |Φ(xi))logP(Ck |Φ(xi)); (2)最大对数:K个聚类中的最大对数值;(3)分类裕度:最大与第二个最大对数之间的差,表明样本在两个聚类之间翻转的难易程度。

    我们考虑与精度和召回率概念相对应的两种不正确的聚类:(1)离群值,其身份不属于聚类身份的样本; (2)Split-ID,其中来自相同身份的样本分布在几个群集中(图4(a))。在具有已知基本事实身份的受控环境中,我们验证了以下假设:不确定性度量可以区分正确和不正确的群集分配(图4(b))。请注意,Split-ID构成了错误聚集的样本的大部分,而离群值大约为10%。图4(c)显示了在MS-1M数据集的一个划分中伪标记数据上的类边距分布。直观地讲,没有较大分类余量的样本可能是不正确的伪标签,从而导致了双峰分布-在一种模式下经过噪声标记的样本,在另一种模式下经过正确标记的样本。请注意,类似于重叠的不相交的身份,这是另一个分布分离问题。威布尔拟合到分布的下部(橙色曲线),其初始模式分离阈值是通过Otsu的方法获得的(黑色垂直线)。样本xi不正确聚类的概率由以下方式估算:

    其中θW− b是学习的Weibull模型的参数,g(。)表示不确定性的度量,例如等级裕度。注意,此估计不需要真实标签。我们建议将上述不确定性与伪标签样本相关联,并建立概率的面部识别损失。

    大余弦余弦损失[41]用于训练:

    其中fi是第i个训练样本xi的深度特征表示,wj是第j类的学习分类器权重,m∈[0,1]是加法余量,α是比例因子; ∥fi∥和∥wj∥设置为1。对于xi∈XU,我们用聚类不确定度p-(xi)调制训练损失,其中γ控制权重曲线的形状:

    4个实验

    在各种情况下,我们使用附加的伪标记数据来扩充在标记数据上训练的监督模型。我们首先总结主要发现-(i)基线监督模型受益于其他伪标记的训练数据; (ii)在不处理重叠ID的情况下对集群进行再训练会损害性能,并且我们的分离重叠方法在经验上证明是有效的; (iii)通过使用来自标记集分布之外的未标记数据来增加训练数据的多样性,所提供的帮助远超过可比较数量的域内未标记数据; (iv)放大使用整个MS-Celeb-1M [7]数据集(或简称为MS1M)作为标记训练集,通常

    由大多数深层模型完成,只有在未标记样品的体积与MS1M本身的体积相当时,我们才能看到性能的显着提高。实验装置。表1总结了培训数据源。 MS1M数据集的清理版本总共包含84,247个身份和4,758,734个样本。根据身份进行划分,完整的MS1M数据集分为10个部分,每个身份大约有8.4k个身份和470k个样本。我们创建以下设置:

    –受控的脱节(第4.1节):带标签的数据和未带标签的数据均来自MS1M的分割(表1 MS1M的分割1和2)。因此,它们具有相同的分布,并且在构造上没有重叠的标识,类似于[42]中的设置。我们比较了基线聚类方法和聚类不确定性对重新训练人脸识别模型的影响。

    –受控重叠(第4.2节):我们在两个数据集之间引入了模拟的身份重叠(表1 MS-Celeb-1M分割了1-O和2-O),显示了简单的聚类和重新训练在此过程中的不利影响案例,以及我们提出的方法的有效性。

    –半受控的(第4.3节):我们限制了标记数据(MS1M的split-1)与来自另一个数据集的未标记数据(即VGGFace2 [3]),该数据包含8.6k身份和310万张图像。这更接近实际情况,潜在的身份重叠和数据源之间的分布偏移。

    –不受控制(第4.5节):接近实际设置,我们使用了所有可用的标记数据(整个MS-Celeb-1M),并尝试通过包括来自其他数据集的未标记数据来进一步提高性能– VGGFace2 [3 ],IMDB-SenseTime [40],CASIA [43]和GlintAsian [5],因为他们完全忽略了他们的真实标签。注意,该设置在现有技术中没有在伪标签面[42,44]上解决。

    评估。我们报告以下方面的结果:野外带标签的面孔(LFW)[11,17]和名人正面人物(CFP)[35]的验证准确性;在具有挑战性的IARPA Janus基准(IJB-A)上,识别1级和5级,以及1e-3和1e-4的错误接受率(FAR)的真实接受率(TAR)[16]。对于聚类指标,我们采用[42]中使用的协议。培训细节。我们使用高性能的CosFace模型[41]进行人脸识别,带有118层ResNet主干,对标记数据进行30个纪元的训练。重新培训是使用相同的设置从头开始进行的。 Face-GCN使用GCN-D的公开代码[42]。有关更多详细信息,请参阅补充材料。

    4.1控制的不相交:MS-Celeb-1M拆分

    在受控设置中,MS-Celeb-1M的Split-1被用作标记数据集,以完全监督的方式训练人脸识别模型。面部聚类模块还可以在标记的Split-1数据上以受监督的方式进行训练。未标记的数据来自MS-Celeb-1M的Split-2:地面真相标签被忽略,所有样本上的特征都被提取,训练有素的GCN模型提供了聚类分配。

    聚类。表2总结了各种聚类方法的性能,即K-means [34],FastHAC [23]和DBSCAN [6,33],具有最佳的超参数设置4。GCN明显优于基线聚类方法。 GCN通常会提供实际身份的大量信息–准确度要比召回率高(95.87%对79.43%),表明每个簇的纯度很高,但是来自同一身份的样本最终分布在多个簇中(“拆分ID”)。

    重新训练。结果总结在表3中。在整个基准测试中,对经过标记的Split-1和伪标记的Split-2数据(+ GCN)进行CosFace的重新训练比仅对经过标记的Split-1(Baseline GT-1)进行的训练要好。当Split-2(+ GT-2)上有完美标签时,性能将达到最高水平。请注意,从较简单的方法(如K-Means和HAC)对群集分配进行的再培训在基线之上也有所改善。

    重新训练w /迭代聚类。我们使用重新训练的CosFace模型作为特征提取器,执行集群的第二次迭代。经过重新训练的CosFace模型具有更多判别特征,从而导致更好的聚类(表2 GCN-iter2与GCN对比)。但是,在这些集群分配上对Cos-Face进行另一轮重新训练会产生较小的收益(表3 + GCN-iter2对+ GCN)。

    见解。如果标签数据有限,则在聚类面孔上进行训练会显着提高识别性能。还显示出了诸如K-means之类的简单聚类方法,可以提高识别性能-如果训练Face-GCN不切实际,那么现成的聚类算法也可以提供伪标签。第二次迭代会带来较小的收益,表明收益递减。

    4.2受控重叠:重叠标识

    我们模拟了Sec中提到的现实世界中的重叠身份场景。 3.1凭经验观察其对“聚类伪标记”管道的影响。我们创建两个MS1M子集,每个子​​集具有约16k的身份,具有约8.5k的重叠身份(表1中重叠的后缀“ O”)。标记的子集XL包含大约720k样本(Split-1-O)。未标记的子集Split-2-O包含大约467k脱节身份(XUD)和224k重叠身份(XUO)样本。

    不相交/重叠。将脱节/重叠身份分离建模为分布失调问题是一种有效的方法,尤其是在选择最大logit得分作为OOD的特征时。简单的Otsu阈值可提供可接受的低错误率,即6.2%的误报率和0.69%的误报率,而使用Weibulls的95%置信区间,我们可以实现2.3%FPR和0.50%FNR的低得多的错误率。

    聚类。表5显示了对所有未标记数据进行聚类(朴素)与分离出未标记数据的身份不相交部分然后进行聚类(不相交)的结果。在两组未标记的样本上,GCN聚类均能实现较高的精度和较高的查全率,这表明我们在重新训练人脸识别引擎时使用的聚类质量良好。

    重新训练。结果显示在表4中。天真地对附加的伪标签进行再训练显然会损害性能(Baseline vs.GCN(naive))。从不相交的数据中添加伪标签可改善整个基准的基准。根据基线模型的softmax输出,将重叠的样本与其估计的身份合并,这是基于基线模型的softmax输出完成的,在某些情况下(例如LFW和IJBA验证)会有所改善,而在其他情况下(例如IJBA ident。和YTF)会降低性能。合并重叠的身份以及对不相交的身份进行聚类也显示出在多个基准测试中相对于基准的改进。

    见解。重新训练时,带有标记的训练集的重叠标识显然会产生有害影响,并且在合并未标记的数据源时必须考虑这些因素–选择用于这种分离的最大logit分数建模很简单有效。总体而言,从重新训练中丢弃重叠的样本,仅对不相交的样本进行聚类似乎是一种更好的策略。与添加更多标识相比,为存在于标签集中的类添加伪标签数据似乎好处有限。

    4.3半控制:有限标签,大规模未标签数据

    MS-Celeb-1M Split 1形成标记的数据,而未标记的数据来自VGGFace2(表1)。我们仅丢弃估计与MS-Celeb-1M Split-1具有重叠标识的VGGFace2样本。在总共310万个样本中,估计有290万个与MS-Celeb-1M Split-1不相交。

    聚类。在Sec中,对MS-Celeb-1M的Split-1训练了相同的GCN模型。 4.1用于获取VGGFace2上的群集分配。表6比较了MS-Celeb-1M Split2(受控)v.s。上的群集。当前设置。 VGGFace2的F分数是合理的– 74.04%,但低于Split-2 MS-Celeb-1M的F分数(86.88%)–我们不再处理数据集中的未标记数据。

    重新训练。为了保持相似数量的标记和伪标记数据,我们从VGGFace2的最大8.5k簇中每簇随机选择50张图像。重新培训的结果在表7中。我们通常看到VGGFace2数据相对于基线和MS1M-split-2都有好处:YTF:93.82%→94.64%→95.14%,IJBA idnt。等级1:92.66%→94.11%→94.72%,IJBA验证。在FAR 1e-4:69.635%→77.665%→82.484%。当完整的VGGFace2标记的数据集用于增强MS1M-split-1,VGG-GT(full)时,我们获得了上限性能。

    见解。除了诸如聚类准确性和数据量之类的其他问题外,确保未标记数据的多样性也很重要:VGGFace2的伪标记比使用MS1M内的更多数据受益更多。

    4.4集群不确定性的软标签

    表8显示了在伪标记样本(GCN-soft)上用我们建议的聚类不确定度加权损失(第3.3节)对人脸识别模型进行再训练的结果。我们设定γ= 1(补充消融)。我们从经验上发现,将这种集群不确定性纳入训练损失可以改善受控和大规模设置(4个评估方案中的3个)的结果。在受控设置下,在具有挑战性的IJB-A协议(77.67%→78.78%@FAR 1e-4)上,软伪标签MS1M-GCN-soft比MS1M-GCN(硬簇分配)有所改进,在LFW。在大型环境中,通过比较VGG-GCN和VGG-GCN-soft,我们再次看到IJB-A有了显着改进(FAR 1e-4为81.85%→90.16%@),LFW基准也有所提高。补充中包括对聚类误差和不确定性估计值p-(xi)的定性分析。

    4.5不受控制:大规模标记和未标记数据

    较早的案例要么具有有限的标记数据,要么具有与按构造标记的数据相同分布的未标记数据,要么两者都有。现在,整个MS-Celeb-1M被用作标记的训练数据,用于训练基线CosFace模型以及GCN。在重新训练过程中,我们逐渐向MS-Celeb-1M标记的样本中逐渐添加了几个著名的人脸识别数据集(忽略它们的标签)(表9)5。随着更多的数据,这些数据集带来了更多不同的样本(分析补充)。

    重新训练。重新训练的结果显示在表10中。如预期的那样,当在大型标记数据集(例如MS-Celeb-1M)上训练基线模型时,添加适量的未标记数据会得到有限的收益。仅合并来自VGGFace2的数据时,在LFW(99.7%→99.73%)和IJBA上都有改进。 (95.47%→95.87%)和verif。 (80.68%→81.85%)。但是,在较小规模的数据集CFP-fp上有一些性能下降的情况。通过合并所有其他数据集(VGGFace2,CASIA,IMDB-SenseTime和GlintAsian),未标记数据量可观(470万标记与360万未标记)时,我们将在具有挑战性的IJBA基准上获得明显的优势(排名为1个识别:95.47%→96.94%,在FAR 1e-4处验证TAR:80.68%→92.29%)。

    见解。当我们能够访问MS1M的所有可用标记数据时,改善人脸识别的关键因素似乎是多样性和数量-仅当我们合并来自所有其他数据源的未标记数据,并达到与MS1M相当的样本数量时,我们可以改善仅通过对MS1M的真实标签进行训练而获得的性能,这表明当前高性能的人脸识别模型可以从更大的训练数据集中受益。尽管仅通过手工注释来获取这种规模的数据集是非常昂贵和费力的,但使用伪标签已被证明是一种可行的选择。

    5结论

    本文中描述的伪标记方法提供了一种改善全面监督的人脸识别的方法,即CosFace,它利用大量未标记的数据源来扩充现有的标记数据集。实验结果显示了在各种情况下性能的持续提高,并提供了使用未标记数据进行大规模人脸识别的见解–(1)我们需要相当数量的已标记和未标记数据才能看到显着的性能提升,尤其是当数百万个已标记样品可用; (2)标记数据和未标记数据之间的身份重叠是一个主要问题,需要在实际场景中进行处理; (3)与大量未标记的数据一起,如果新数据显示出一定的域间隙w.r.t,则会观察到更大的收益。标签集; (4)在伪标签上合并聚类不确定性的可扩展度量有助于处理标签噪声。总体而言,从未贴标签的脸部学习表明是进一步改善脸部识别性能的有效方法。

    相关文章

      网友评论

          本文标题:2019-12-14

          本文链接:https://www.haomeiwen.com/subject/ezacnctx.html