APP下载

基于自适应圆边际的深度人脸识别算法

2022-01-10才华孙俊朱瑞昆朱新丽赵义武

兵工学报 2021年11期
关键词:边际人脸人脸识别

才华,孙俊,朱瑞昆,朱新丽,赵义武

(1.长春理工大学 电子信息工程学院,吉林 长春 130022;2.长春中国光学科学技术馆,吉林 长春 130117;3.长春理工大学 空间光电技术研究院,吉林 长春 130022)

0 引言

人脸识别是计算机视觉研究中最广泛的课题之一,随着深度学习的兴起,深度卷积神经网络成为研究的热点,人脸识别得到了突破性进展[1-9]。深度人脸识别的成功主要归功于对3个因素的改进:训练数据集的扩充、深度神经网络结构的改进以及损失函数的优化。现有的数据集如野外的标签脸数据集LFW、半自动收集网络上的人脸数据集CASIA-Web Face、去噪后大规模人脸识别的数据集与基准MS1M[10]和百万级人脸数据集Mega Face[11],它们包含着大量人脸身份,使得对大量数据有效的深度网络成为可能。对网络结构的改进如AlexNet[5]、VGGNet[12]、GoogleNet[1]和ResNet[13],这些网络结构发展表明了对深度网络结构的改进也会提高性能。除了大规模的训练数据和网络结构以外,有效的损失函数在人脸识别模型中也起着至关重要的作用,如对比损失[14-15]、三重态损失[1]、中心损失[16],这些都是对欧式裕度施加约束,随着余弦和角边距被发现对特征识别有效后,相应的损失函数也被相继提出,如乘性余弦损失函数A-softmax[13]、加性余弦损失函数AM-softmax[17]、加性角度损失函数Arcface[18].尽管这些损失函数在人脸识别上表现优异,但它们更多的是通过引入固定边际,而对类内样本进行压缩得到优化,没有考虑到边际本身问题。这样会出现两个问题:1)对样本不均衡的人脸数据集泛化能力差;2)在优化过程中收敛状态不明确。现有的损失函数Circleloss边际与本文自适应圆边际损失函数AdaCMloss边际方法比较。图1中:绿色箭头所指边际横线代表自适应的边际;sn表示类内相似度;sp表示类间相似度;A为常规点边际;B为类间相似度趋近于0时的边际;C为类内相似度趋近于1时的边际;B′为类间相似度趋近于0时,对类内相似度加权后的边际;C′为类内相似度趋近于1时,对类间相似度加权后的边际。

图1 现有的边际方法与本文的AdaCMloss方法比较

本文提出一种新型损失函数AdaCMloss,重点考虑边际自身情况。通过自适应地找到不同类的适当边际,使每个类的边际m是特定的并且可以学习的,同时,通过直接训练卷积神经网络(CNN)来寻找自适应边际。如图1(a)所示,现有的方法Circleloss尽管将边际拆分,将类间相似度和类内相似度分别线性加权,但总的边际还是固定的,尽管模型有所提升,但收敛状态有限,且在不均衡样本中泛化能力差。由图1(b)可见,本文期望对代表性不足的类给定更大边际,从而对它们类内空间变化强烈挤压,以提高泛化能力。对于不均衡样本中的少量样本,其实际分布可能大于观测到的分布,泛化能力差,而自适应可以为少量样本学习更大边际,使观测特征更加紧凑,隐式地将少量样本的真实边界从类间相似度推开。其次引入Circleloss通过对类内相似度和类间相似度进行线性加权,达到明确的收敛目标,其中B、A、C所在的边际表示数据库中观测样本的决策边界。本文在Circleloss基础上考虑到了大规模人脸数据集是高度不均衡问题,着重对边际进行优化,对不同样本类自适应学习不同边际,为少量样本学习更大的边际,在对边际线性加权基础上进一步压缩特征空间,可以进一步提高模型泛化能力和性能。为了证明所提出的AdaCMloss损失函数的有效性,本文在5个人脸基准的数据集上对其进行评估,包括野外的标签脸数据集LFW、新野外的标签脸数据集LFW BLUFR、美国IARPA Janus C数据集IJB-C[19]、YouTube的人脸数据集YTF[20]和百万级人脸数据集Mega Face[11].本文方法在所有这些基准上都优于最先进的基于余弦的损失。

1 相关工作

随着深度学习的发展,人脸识别获得了巨大的成功。损失函数在人脸识别中起着重要作用,在这一部分中,本文对深度人脸识别中的损失函数进行分析。

Sun等[14]提出了一种联合识别-验证信号,使用Contrastive Loss,选择两个样本,如果二者属于同一类,则使他们的距离尽可能小,否则的话就是使他们的距离尽可能远。Schroff等[1]证明了三重态损失的有效性,同时接收3幅图像,其中两幅是配对的,另一幅是离群点,三重态损失使成对图像之间的嵌入距离最小化,同时使负样本与其他图像之间的距离最大化。虽然Contrastive Loss和Triplet Loss摆脱了对Softmax损失的监督,节省了GPU内存,但它们挑选有难度,且训练不稳定难收敛。

对于分类损失函数,目前广泛使用的损失是Softmax损失,Wen等[16]提出了惩罚嵌入与相应中心之间欧几里德距离的Centerloss,学习特定于类的特征中心,使嵌入空间中的特征更加紧凑。Wang等[21]提出了NormFace使权重和特征规范化,加入自适应的缩放因子,使训练和测试阶段更加接近,模型易于收敛。随着余弦和角边际被发现对特征识别有明显改善后,Liu等[13]提出了Sphereface,使用A-softmax,在原始Softmax损失的决策边界引入角边际,添加乘性角裕度以改善特征识别。Wang等[17]提出了Cosface,采用AM-softmax将乘性裕度改为加性裕度,使边际从作用在角度转换到作用到余弦距离上,从而进行优化。Deng等[18]提出Arcface,将加性余弦裕度移动到角空间,从而得到更清晰的几何解释以及更好的性能,他们通常作为Softmax损失的辅助损失,旨在学习更具有鉴别性的特征空间。这些方法更多的关注于判别性特征空间,虽然引入了边际,但对边际进行了固定,没有考虑到边际自身带来的影响。最近Sun等[22]提出Circleloss,将边际问题有所拆分,为不同人脸相似度学习不同边际,效果有所提升,但总的边际还是固定。这些固定边际的方法会使得模型提升有限,且在不均衡数据集中泛化能力差。

近年来随着对深度人脸识别长尾问题的研究[3,23-27],边际情况逐渐被考虑,Liu等[24]提出了Adaptiveface,通过自适应裕度Softmax来根据富类和穷类差异来动态修改不同类的边际。Cao等[25]提出了Domain Balancing,通过更加侧重于长尾域,在频率分布上进行域的平衡。Zhang等[26]提出了Unequal-Training,通过一种训练策略,以不相等的方式处理头部数据和尾部数据。尽管这些方法对固定的边际进行了优化,在长尾问题上得到了很好的研究效果,但它们只是相当于对边际进行线性组合,对固定的边际进行线性缩放,缺乏灵活性,会导致模型收敛不明确。

2 算法研究

首先分析AM-softmax损失函数,然后对Circleloss进行介绍,通过对Circleloss的改进获取本文所提出的自适应圆边际损失函数,最后对本文方法进行合理性分析。

2.1 AM-softmax损失函数

在各种多分类视觉任务中,Softmax损失被广泛使用,它通过最大化真实样本类别的后验概率将特征从不同的类中分离出来,给定第i个输入特征为xi,其对应的标记为yi,表达式如下:

(1)

式中:Ls为归一化指数函数;N为批次大小;Wyi为样本被分为正样本的权重;byi为样本被分为正样本的偏置项;Wj为第j类最后一个完全连接层的权重,Wj∈Rd,d为特征维度;bj为偏置项,bj∈R;M为类的数量。在Wj和xi上应用L2归一化来优化球面上的特征,特征距离可以表示为特征角如下:

(2)

式中:θji为Wj和xi之间的角度。在此基础上,一些方法引入了一个裕度来提高类内密实度,如Cosface如下:

(3)

式中:LAM为加性余弦损失函数;s为尺度因子;θyi为wyi与xi之间的角度;θj为Wj与xi之间的角度;m表示边际。通过参数s扩大了余弦距离的窄范围,使模型更具鉴别性,参数m则扩大了不同类之间的裕度,以提高分类能力。

2.2 Circleloss损失函数

(4)

(5)式进行处理,其中,本文暂时不考虑批次问题,假设对特征空间中样本x,有K个类内相似分数和L个类间相似分数关联x,可得损失函数为

(5)

式中:K为与x相关的类内相似度分数个数;L为与x相关的类内相似度分数个数。

从(5)式中可以看到,损失函数会归为对sn-sp的优化,提升了类内相似度sp相当于降低了类间相似度sn,这会使得当sn离最优值很近,但是sp离最优值很远时,依然会对它们进行相同的惩罚,导致收敛状态模糊,而Circleloss从优化sn-sp改为优化αnsn-αpsp,αn为类间相似度权重参数,αp为类内相似度权重参数,经过线性加权使得优化方式成为非对称的,因此需要为类内和类间设置独立的边际,Circleloss损失函数如下:

(6)

式中:LC为圆损失函数;mn为类间相似度余量;mp为类内相似度余量。

2.3 AdaCMloss损失函数

Circleloss虽然对人脸特征区分效果进一步提升,考虑到边际问题,将边际拆分为mn、mp,但总的边际m还是固定,由于m固定,根据m=mn+mp,拆分的mn、mp也有一定局限,导致模型收敛有限且在不均衡样本中模型泛化能力差,本文期望在不均衡样本中根据不同的类来动态更新边际,使边际适应不同的类,通过进一步对边际优化使模型达到最优。

首先本文在AM-softmax基础上将固定边际m改为mj,损失函数如下:

(7)

式中:LA为自适应边际损失函数;mj表示第j类的边际。本文让每个边际从固定的改为特定的、可学习的,通过训练神经网络来自适应的为每一个类找到合适的边际,通过对边际进行自适应学习,为少量样本学习更大边际,从而对少量样本数据类内压缩更紧凑。

然后将得到的自适应损失引入Circleloss中,对类内相似度和类间相似度线性加权,从优化sn-sp改为优化αnsn-αpsp,最终损失函数如下:

(8)

本文算法的决策边界如(9)式所示,在期望sp趋近于1和sn趋近于0的同时,将参数m进行自适应变化,与Circleloss不同,根据对m的动态变化,可以获得不同大小的圆边际,产生自适应圆边际,进一步提高模型的性能和泛化能力。

(9)

2.4 与其他损失函数比较

为了更好地理解本文方法与其他基于边缘的Softmax损失之间的区别,本文给出了表1中二元分类情况下的决策边界。这些方法的主要区别是本文方法的边际是可学习的并且是与类相关的。

表1 二元分类情况下的边际

本文方法与Circleloss、AM-softmax方法的边际对比如图2所示,其中黑色虚线代表可能样本的底层实际决策边界,3种颜色对应的虚线分别代表3种方法数据库中观测样本的决策边界,可以看到虽然Cosface和Circleloss给出了清晰边际,且Circleloss在Cosface的基础上优化,使类间相似度或类内相似度趋近最优时强调另一个相似度,但对于较差的样本类,其实际分布可能大于观测到的分布,因此实际裕度越来越小,导致泛化能力差。而本文方法通过网络训练自适应学习更大的m,使观测特征更加紧凑,模型泛化能力更强。

图2 对少样本、不同损失函数边际的比较

2.5 算法分析

本文通过对比分析研究了参数裕度边际的影响,采用浅层CNN通过不同m对边际进行分析如图3所示。由图3可见:在m为0.1和0.2时准确性最高;在m为0.7、0.8和0.9时准确性几乎没有提升;虽然较大的m能够提供更大的监督,对类内压缩的更紧凑,但是m的选择也不是越大越好,过大的m会导致几乎所有样本的大损失,使样本到类的角度很小,使得训练很难收敛。

图3 对固定边际的算法、不同m对应的准确性

因此,适当的边缘设置可以提高模型的性能。本文对二分类任务进行了可视化,如图4所示。由图4可见:本文方法与AM-softmax的区别在于,本文方法的边际是动态可学习的,与类的分布密切相关;对于AM-softmax损失,它对两类样本的决策边界分配了相同的边际,不能对深蓝色少样本类进行有效的压缩,使得样本少空间大,从而导致分布稀疏,泛化能力差;相反地,本文方法通过自适应决策边界,对少样本区域学习更大的裕度,使空间得到进一步压缩,从而保证了类内的紧凑性。通过分析本文的方法是合理有效的。

图4 二分类区间可视化对比(绿色区域代表丰富样本C1,W1代表样本C1类的权重向量;蓝色区域代表少量样本C2,W2代表样本C1类的权重向量)

3 仿真实验

本文对6个广泛使用的人脸数据集进行介绍,然后通过对5个测试数据集的实验数据对比证明所提出方法的有效性,其中包括Megaface[11]、IJB-C[19]、YTF[20]、LFW和LFW BLUFR数据集。

3.1 数据集介绍

数据集包含训练集和测试集,训练集包括CASIA-WebFace和MS1M,CASIA-WebFace数据库包含10k+人脸身份和约500k张图片,常用于非约束环境下人脸识别科学研究。MS1M是最大的真实世界人脸数据集之一,其包含98 685名名人和1 000万张图片,由于原数据集未经过清洗,存在很多噪声,本文采用MS1M数据集的改进版MS1MV2,提高了数据集的质量。测试集包括Megaface、IJB-C、YTF和LFW,其中Megaface是大规模人脸识别和验证最具挑战性的基准之一,MegaFace由样本干扰集和测试集组成。样本干扰集包括690 k身份的1 M样本;测试集包括两部分,本文采用其中之一的Facescrub,其包括530个不同个体,100 k以上的图像。IJB-C数据集是IJB-B数据集的进一步扩展,它拥有3 531个试验者的31.3 k张静态图像和来自11 779个视频的117.5 k视频帧。总共有23 124个模板的19 557个真实匹配和15 639 k个冒名匹配。YTF包含了从Youtube下载的1 595名不同人员的3 425个视频,具有不同的姿态、光照和表达方式,这是一个流行的无约束人脸识别数据集。在YTF中,每个人大约有2.15个视频,一个视频剪辑平均有181.3帧。LFW数据库是真实条件下的人脸识别问题的测试基准。该数据集包括来源于因特网的5 749人的13 233张人脸图像,其中有1 680人有2张或以上图像,这些图像是在野生环境中从网络中捕捉到的,在姿态、光照、表情、年龄和背景上各不相同。LFW BLUFR包含了验证和开放集识别场景,重点是低FARs。实验中有10个实验,每个实验平均包含156 915个真实匹配分数和46 960 863个冒名顶替匹配分数。用于训练和测试的数据集统计如表2所示。

表2 用于训练和测试的数据集统计

3.2 各个数据集的实验

首先通过对Megaface数据集进行预处理,获取同样类别但不同分布的两个小型数据集,这两个数据集的一个样本分布均匀,另一个不均匀分布,通过浅层卷积网络进行对比分析,如图5和表3所示。

图5(a)通过对均匀分布进行预测,可以看到本文方法与Circleloss方法很接近,都是采用对类内相似度和类间相似度线性加权进行优化,比AM-softmax和softmax效果要好。图5(b)则是在相同的类别不均匀分布情况下的预测,从中可以明显看到,本文方法在对类内相似度和类间相似度线性加权的基础上对边际进行自适应,对不均匀分布数据要明显好于其他方法,具体实验数据如表3所示。然后,将Megaface数据集清洗,划分成3种测试集,分别为均匀样本占总样本的1/4、1/2和完全均匀。采用ResNet34主干网络,对不同样本分布和损失函数下的rank-1精确度度量指标(预测结果中置信度最高的是正确结果概率)对比分析,如表4所示。由表4可有看到:Softmax未引入边际约束,样本分布越不均匀、精度下降越明显,而AM-softmax、Arcface、Circleloss虽然引入了边际约束,但都是对边际加以固定,导致随着不均匀样本增加,精度会有1%的下降;而本文AdaCMloss采用自适应边际,在完全均匀分布下与Circleloss相当,随着样本不均衡的加大,与Circleloss对比越明显。

图5 不同损失函数与本文方法在均匀分布和不均匀分布下的预测进行比较

表3 均匀分布和不均匀分布下的不同方法比较

表4 相同主干网络ResNet 34下不同样本分布和损失函数在Mega Face数据集的rank-1精度

本文进一步比较了表5中IJB-C 1∶1验证任务中的3种损失函数,通过对TAR(真正例率)@FAR(假正例率)的3个不同指标进行对比分析,结果表明:以ResNet34为主干网络,在“TAR@FAR=1e-3”、“TAR@FAR=1e-4”和“TAR@FAR=1e-5”上本文方法分别比Circleloss多0.22%、0.70%和1.33%,由此可见,以ResNet100为骨干网络,本文方法仍在各项指标中达到最优。

本文损失函数与其他损失函数的ROC曲线(受试者工作特征曲线)对比如图6所示。图6中:曲线越靠近图形左上角代表模型越好,本文损失函数相比于Circleloss与AM-softmax更靠近左上角,表明模型的性能好;面积代表ROC曲线下的面积,主要用于衡量模型的泛化性能,面积的定量比较结果表明,本文损失函数更优。

本文广泛应用了YTF和LFW数据集验证本文的AdaMCloss损失函数,采用ResNet34主干网络进行预测分析,如表6所示。由于LFW6000对测试图像中3 000对相同、3 000对不相同,均衡分布占1/2,且考虑到LFW已经很好地解决,性能已经接近饱和,进而在更具有挑战性的LFW BLUFR上进一步评估了本文方法。由表6中可以看到,尽管LFW性能接近了饱和,但本文方法仍然超过了Circleloss 0.06%,并在更具有挑战性的LFW BLUFR上超过了Circleloss 1.1%,在YTF数据集中也超过了Circleloss 0.05%.

表6 ResNet34骨干网络在LFW、LFW BLUFR和YTF的人脸验证精度

3.3 自适应边际实验

根据2.5节中不同边际的分析,以及后续会通过训练获取不同类的边际mi,因此所有样本类的初始化为相同边际m=0.3,通过直接训练CNN来动态更新不同类的边际mi,边际大小与样本大小直接相关,通过一次迭代获取训练样本中不同类别样本的数量,根据样本类的不同通过CNN训练获取每一个类自适应的边际,后续迭代中,每个类已分配好独有的边际,边际不再变化。

本文给出了与学习边际m相对应的同类平均样本数量,如图7所示。由图7可见,随着样本数的减少,m值在增加,验证了本文AdaCMloss可以自适应地将较大的边际分配给样本少的类,并将较小的边际分配给样本多的类。

图7 边际对应的同类平均样本数量

3.4 实验参数

深度网络采用Resnet34网络,输入图像大小为112×112,卷积获取的特征为512维,迭代次数设置为200 000次。

网络优化器选择Adam适应性矩估计优化算法,其中优化器中的参数采用TensorFlow深度学习框架参数:学习率LR=0.01,1阶矩估计的指数衰减率β1=0.9,2阶矩估计的指数衰减率β2=0.999,ε为防止除数为0的参数,ε=1×10-8,ε参数是非常小的数。

批次选择N=500.N过小,花费时间多,同时梯度震荡严重,不利于收敛;N过大,模型收敛梯度方向没有任何变化,容易陷入局部极小值。

尺度因子s通过对夹角的值进行缩放,使模型更容易收敛,本文通过对尺度因子常用数值16、32、64、128、256进行实验,结果如图8所示。尺度因子s取值16、32、64准确率接近,而取值128、256时准确率有所下降,本文选取s=64.

图8 不同尺度因子对准确度的影响

4 结论

本文提出了AdaCMloss损失函数,通过学习一个自适应圆形边际,解决了现有方法常常将边际固定结合到损失函数中进行优化,而没有考虑到边际自身的变化情况,导致模型收敛状态不明确,并且在不均衡样本中泛化能力差的问题。通过边际自适应,对不均衡数据中不同的样本学习不同的边际。AdaCMloss损失有利于深度特征学习,与现有方法对比具有较高的优化灵活性和明确的收敛目标,并对不均衡人脸样本数据具有较高的泛化能力。通过对Megaface、IJB-C、YTF、LFW和LFW BLUFR数据集上的广泛实验,本文方法整体平均提高了0.5%,表明了所提出方法的有效性。

参考文献(References)

[1] SCHROFF F,KALENICHENKO D,PHILBIN J.FaceNet: a unified embedding for face recognition and clustering[C]∥Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition.Boston,MA,US:IEEE,2015:815-823.

[2] ZHANG X,FANG Z Y,WEN Y D,et al.Range loss for deep face recognition with long tailed training data[C]∥Proceedings of 2017 IEEE International Conference on Computer Vision.Venice,Italy:IEEE,2017:5419-5428.

[3] YIN X,YU X,SOHN K,et al.Feature transfer learning for face recognition with under-represented data[C]∥Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach,CA,US:IEEE,2019:5704-5713.

[5] TAIGMAN Y,YANG M,RANZATO M,et al.Deepface: closing the gap to human-level performance in face verification[C]∥Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus,OH,US:IEEE,2014:1701-1708.

[6] SUN Y,WANG X G,TANG X O.Deeply learned face representations are sparse,selective,and robust[C]∥Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition.Boston,MA,US:IEEE,2015:2892-2900.

[7] ZHENG Y T,PAL D K,SAVVIDES M.Ring loss: convex feature normalization for face recognition[C]∥Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,US:IEEE,2018: 5089-5097.

[8] MAZE B,ADAMS J,DUNCAN J A,et al.Iarpa janus benchmark-c:face dataset and protocol[C]∥Proceedings of 2018 International Conference on Biometrics.Gold Coast,QLD,Australia:IEEE,2018:158-165.

[9] 张欣彧,尤鸣宇,朱江,等.基于联合损失函数的小规模数据人脸识别[J].北京理工大学学报,2020,40(2):163-168.

ZHANG X Y,YOU M Y,ZHU J,et al.Face recognition of small-scale data based on joint loss function[J].Transactions of Beijing Institute of Technology,2020,40(2):163-168.(in Chinese)

[10] GUO Y D,ZHANG L,HU Y X,et al.Ms-celeb-1m: A dataset and benchmark for large-scale face recognition[C]∥Proceedings of European Conference on Computer Vision.Berlin,German: Springer,2016: 87-102.

[11] KEMELMACHER-SHLIZERMAN I,SEITZ S M,MILLER D,et al.The megaface benchmark: 1 million faces for recognition at scale[C]∥Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,US:IEEE,2016:4873-4882.

现在,我们经常看到小刘忙着给各小组设计车型,也有组长主动与小刘一起商量本小组的列车模样。当然,小刘与他人的交流时依然会有各种各样的“事故”发生,不过“先锋车站”确实给他带来了很大的影响。

[12] PARKHI O M,VEDALDI A,ZISSERMAN A,et al.Deep face recognition[C]∥Proceedings of British Machine Vision Conference.Swansea,UK: the British Machine Vision Association,2015.

[13] LIU W Y,WEN Y D,YU Z D,et al.Sphereface: deep hypersphere embedding for face recognition[C]∥Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Honolulu,HI,US: IEEE,2017:6738-6746.

[14] SUN Y,CHENG Y H,WANG X G,et al.Deep learning face representation by joint identification verification[J].Advances in Neural Information Processing Systems,2014,27:1988-1996.

[15] SUN Y,WANG X G,TANG X O.Deep learning face representation from predicting 10,000 classes[C]∥Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus,OH,US:IEEE,2014:1891-1898.

[16] WEN Y D,ZHANG K P,LI Z F,et al.A discriminative feature learning approach for deep face recognition[C]∥Proceedings of European Conference on Computer Vision.Berlin,German: Springer,2016:499-515.

[17] WANG F,CHENG J,LIU W Y,et al.Additive margin softmax for face verification[J]IEEE Signal Processing Letters,2018,25(7):926-930.

[18] DENG J K,GUO J,XUE N N,et al.ArcFace:additive angular margin loss for deep face recognition[C]∥Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach,CA,US:IEEE,2019:4690-4699.

[19] WOLF L,HASSNER T,MAOZ I.Face recognition in unconstrained videos with matched background similarity[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Colorado Springs,CO,US:IEEE,2011:529-534.

[20] NG H W,WINKLER S.A data-driven approach to cleaning large face datasets[C]∥Proceedings of 2014 IEEE International Conference on Image Processing.Paris,France:IEEE,2014: 343-347.

[21] WANG F,XIANG X,CHENG J,et al.NormFace:L2hypersphere embedding for face verification[C]∥Proceedings of the 25th ACM International Conference on Multimedia.Mountain View,CA,US:ACM,2017:1041-1049.

[22] SUN Y F,CHENG C M,ZHANG Y H,et al.Circle loss: a unified perspective of pair similarity optimization[C]∥Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle,WA,US:IEEE,2020:6398-6407.

[23] 章东平,陈思瑶,李建超,等.基于改进型加性余弦间隔损失函数的深度学习人脸识别[J].传感技术学报,2019,32(12):1830-1835.

ZHANG D P,CHEN S Y,LI J C,et al.Deep learning face recognition based on improved additive cosine margin softmax interval loss function[J].Chinese Journal of Sensors and Actuators,2019,32(12):1830-1835.(in Chinese)

[24] LIU H,ZHU X Y,LEI Z,et al.AdaptiveFace: adaptive margin and sampling for face recognition[C]∥Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach,CA,US:IEEE,2019:11947-11956.

[25] CAO D,HU X Y,HUANG X Y,et al.Domain balancing:face recognition on long-tailed domains[C]∥Proceedings of IEEE/CVF International Conference on Computer Vision and Pattern Recognition.Seattle,WA,US:IEEE,2020:5671-5679.

[26] ZHONG Y Y,DENG W H,WANG M,et al.Unequal-training for deep face recognition with long-tailed noisy data[C]∥Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach,CA,US:IEEE,2019:7812-7821.

[27] 姬东飞,丁学明.基于自适应角度损失函数的深度人脸识别算法研究[J].计算机应用研究,2020,37(10):3169-3174.

JI D F,DING X M.Research on deep face recognition algorithm based on adaptive angle loss function[J].Application Research of Computers,2020,37(10):3169-3174.(in Chinese)

猜你喜欢

边际人脸人脸识别
人脸识别 等
有特点的人脸
玻璃窗上的人脸
人脸识别的“国标”来了
学会坚持,学会放弃,理性行动
浅议导数和边际在量本利经济分析中的应用
荣耀畅玩7C:人脸识别
“领家系”可爱脸VS“高冷系”美人脸
“人脸识别”人工智能测谎仪研发成功
长得象人脸的十种动物