APP下载

基于实例相关标签噪声的消除算法综述

2022-02-07蔡宇佳陈丽绵

智能计算机与应用 2022年12期
关键词:实例标签损失

蔡宇佳,陈 旋,覃 芹,陈丽绵,张 利,2

(1 贵州大学 大数据与信息工程学院,贵阳 550025;2 贵州大学 省部共建公共大数据国家重点实验室,贵阳 550025)

0 引言

目前,在机器学习领域,例如图像分类等各种视觉问题在深度学习方面相继涌现出一批科研成果,尽管计算机硬件系统在图像处理等方面得到提升,网络训练方面的技术也在不断取得突破,但要获得良好的性能却需要大量的数据作为支撑。随着大数据技术的蓬勃发展,各种分类系统也日趋成为研究热点,这些系统也需要大量的标注数据才能得到充分的训练,但标注过程困难、且昂贵。在一些分类模型中,若使用标注大量错误信息的数据集,则会导致其结果准确性并不高。而诸如众包[1]等情况在现实世界中将会产生大量的标签噪声,尽管在数十年前就已开始对其进行研究[2-7],但迄今为止却依然存在各种各样的问题。

在文献[4-5]中,将标签噪声分成2 种类型:特征噪声和标签噪声。其中,特征噪声影响该特征的观测值,标签噪声则改变分配给实例的观测标签。有研究表明[5],标签噪声比特征噪声更为复杂。并且,标签噪声问题也是当前学界面临的重大挑战,比如在医疗图像领域中,几乎通过医学设备诊断测试出的数据都不是完全正确的[3-4];在射电天文图像处理模型的训练过程中[8-9],通常会依赖正确的标签,从而对模型训练带来影响。在标签噪声分类问题中,基于实例相关的标签噪声更接近于真实世界的情况,因此基于实例相关的标签噪声学习算法的研究具有重要意义。

现如今,基于实例标签噪声消除问题在深度学习领域已取得可观研究进展,而现有的方法通常在许多实际应用中存在不实用的先验条件,如需要干净标签的铺助设备[1]或大量的先验信息[10],这些方法耗时、耗力,较为麻烦。一般情况下,使用显式和隐式两种处理方式对实例标签噪声结构模型进行分类研究。在显式处理方式中,主要有2 种经典方法:基于标签分布来监督网络学习方法[11-13]和通过处理小损失情况[14-17]。同样,在隐式处理方式中也有2 种经典方法:基于损失函数方法[18-19]和基于图论的方法[20-21]。本文的工作则拟对实例标签噪声的消除算法展开研究综述。

研究中仅考虑实例相关标签噪声对目标分类器的影响,并对其进行综述。针对实例相关标签噪声消除算法加以研究,通过显式和隐式的方法进行分析和总结,选取部分算法对其进行实验对比,并做出展望。

1 实例相关标签噪声的产生及影响

在现实世界的图像分类处理、目标识别等各类应用中广泛存在着基于实例相关的标签噪声。产生标签噪声的因素有很多,例如数据获取过程中通信设备本身带有错误标签[22];成像本身质量的变化也会导致标注错误[2];在射电天文领域,干涉仪等设备获取天文信息数据时,传输过程中会不可避免地带有嘈杂的便签;在一些标注中,信息不足也会导致标注错误等[23]。

近年来,基于实例相关标签噪声问题在深度学习领域引发了广泛关注[24-27]。Heskes[24]、Lachenbruch[25]证明了分类器受标签噪声的影响。Arpit 等人[28]提出了深度模型的泛化用于处理标签噪声带来的影响。Zhang 等人[29]能够拟合随机标签。Angluin 等人[30]和Wu 等人[31]证明了标签噪声不仅降低了分类精度,且对算法模型产生误导性。此外,Frénay 等人[32]、Shanab 等人[33]则指出标签噪声影响特征选择及排序。

Frénay 等人[32]提出了概率模型概念的方法去捕获图像,简称有向概率图,把标签噪声、地面实况标签和噪声类型之间的关系有效联系起来,将标签噪声分为随机标签噪声(Random Classification label Noise,RCN)、类相关标签噪声(Class-Conditional label Noise,CCN)和实例相关标签噪声(Instance-Dependent label Noise,IDN),如图1 所示。其中,x,y,ý 分别为实例特征、真实标签、相应的标签噪声,e为随机变量[34-35]。

图1 标签噪声类型图Fig. 1 Label noise type diagram

2 相关算法

在实例标签噪声学习算法的国内外的各项成果中,皆是对不同的分类情况进行研究[34-36]。在一些研究中,会根据实例数据去创建基础模型,或基于实例数据制定相关决策,本文主要围绕通过显式处理和隐式处理对实例相关噪声结构进行分类探讨,有关实例相关标签噪声处理算法如图2 所示。

图2 实例相关标签噪声处理算法Fig. 2 Instance-related label noise processing algorithm

2.1 显式处理

在实例相关标签噪声中,显式处理通过对实例相关标签噪声进行建模,通常在学习的过程中,主模型对IDN 进行清理,从而消除训练数据中错误的标签。表1 展现了显式处理算法所存在的一些缺陷。在显式处理方式中,主要有2 种方法对实例标签噪声算法进行综述,分别是:标签概率分布的方法和处理小损失情况的方法。对此可做阐释分述如下。

表1 显式处理算法的缺陷总结Tab.1 A summary of explicit processing algorithms defects

2.1.1 标签概率分布的方法

文献[11]提出了一种深度标签分布学习方法(Deep Label Distribution Learning,DLDL),通过有效地利用了特征学习和分类器学习中的标签模糊性,防止在训练集很小的情况下产生过拟合,由于DLDL 的标签分布较为稳定,需要大量的先验信息,导致无法更新的情况,且对不同的应用场景设计不同,泛化性不强。文献[12]提出网络参数和标签联合优化的框架,通过交替更新网络参数和标签来纠正训练中的标签,对网络噪声数据的训练改写损失值,通过修改损失函数,对网络进行更新。但在学习率较低时,得到的准确率不高。该损失函数可由如下公式进行描述:

其中,Lc为分类损失,是损失函数L的主要组成部分;le为一个正则化项;lρ为另一个正则化项;α和β为超参数。

文献[13]提出一种端到端的框架(Probabilistic End-to-end Noise Correction for Learning with noisy labels,PENCIL),可以同时更新网络参数和数据标签,是DLDL 方法的变体。与文献[12] 相似,PENCIL 同样不需要清洁数据集或有关噪声的先验信息,直接利用反向传播来概率地更新和校正图像标签,在训练过程中,PENCIL 引入了损失函数(2),其中lc沿用了KL-divergence 的形式,并将其改为对称形式,取得不错的性能。该函数的数学公式见如下:

PENCIL 的框架虽然能独立于任何模型进行训练,但对非平衡样本的处理较为困难,在实际情况中既存在噪声数据、又存在不均衡类别的情况也十分常见。

2.1.2 处理小损失情况的方法

文献[14]提出一种学习数据驱动课程的新方法(M-Net),利用小批量随机梯度下降法进行深度网络课程学习,通过学习另一个神经网络(Mentor Net)来监督基础深度网络(Student Net)训练的新技术,用来解决过拟合的问题,但在训练过程中容易积累错误信息。文献[15] 提出了一种简单有效的学习范式(Co-teaching),通过同时训练2 个深度神经网络,并令其在每一个小批中相互教学,则能很好地解决积累的错误信息。Co-teaching 通过在小批量数据中过滤噪声样本传递给对等网络来更新参数,训练时间较长,可能会导致神经网络记忆泛化产生误差,使得网络之间达成收敛,就会得到较差的训练结果。针对Co-teaching 的问题,文献[16]对其进行了改进,提出了一种新策略来训练网络(Coteaching+),能够使得神经网络抵御标签噪声的鲁棒性,但该方法只适用于数据集噪声率较低的情况,当噪声率极高时会导致小批量训练变得困难。而文献[17]是在训练之前通过利用GMM 模型将训练数据分为有标签数据和无标签数据,对其进行训练,使2个网络彼此互斥,即解决了Co-teaching 的共识问题,在噪声率较高的情况下,训练效果较好,但相较而言还是不够理想。

在每个小批量处理下的相应网络训练结构(MentorNet(M -Net )[14],Coteaching[15],Coteaching+[16]和Divide MIX[17])如图3 所示。假设错误流来自训练实例的偏选,网络A和网络B的错误流分别用黑色实线箭头和虚线箭头表示。左面板中,M-Net 只训练一个网络(A);中间偏左面板中,Coteaching 同时训练2 个网络(A和B);中间偏右面板中,Coteaching+训练2 个网络(A和B),当2 个网络的预测不一致时(!=),更新这2 个网络的参数;右面板中,Divide MIX 同时训练2 个网络(A和B),每个网络使用从另一个网络的数据集划分,以半监督的方式进行训练。

图3 Mini-batch 相关网络Fig. 3 Mini-batch related network

2.2 隐式处理

隐式处理方法利用更加通用的算法来消除噪声的影响。该处理方法主要通过损失函数去处理标签噪声,使标签噪声训练过程中有较好的鲁棒性。由于IDN 建模困难,许多研究者们对其进行假设,但在一些实际应用中,假设的方法会产生许多限制。因此,一些研究者[18-21,37]提出了隐式地处理实例相关的标签噪声的方法,该方法不需要对标签噪声的生成过程做出假设。

在实例相关标签噪声中,由于一些隐式的清洁处理方法会一起处理原有的干净标签,最终导致分类器性能变差,图像质量下降。为此,学者们提出从图论方向出发,通过探索矩阵所表示的实例相邻关系来设计标签噪声的修正处理方法。Wei 等人[20]提出了一种通过边缘信息的标签噪声处理方法(LNSI),将观察到的标签矩阵分解为2 部分。其中,一部分揭示真实的标签,一部分采用行稀疏矩阵对不正确的标签进行建模,这适用于二值分类,但需要很充分的先验知识。在隐式处理方式中,同样有2种方法对实例标签噪声算法进行综述,分别是基于损失函数的方法和基于图论的方法。对此可给出重点论述如下。

2.2.1 基于损失函数的方法

文献[18]提出了一个理论上的噪声鲁棒损失函数集(GCE),一种基于理论和易于使用的噪声鲁棒损失函数类,可以很容易地应用于任何现有的DNN 体系结构和算法,同时在广泛的标签噪声场景中产生良好的性能。但在噪声率较高时,测试精度较低。

文献[19]提出了对称交叉熵(Symmetric cross entropy Learning,SL)的方法,该方法是反向交叉熵(Reverse Cross Entropy,RCE)和交叉熵(Cross Entropy,CE)结合体,不仅充分利用了两者的优点,还弥补了彼此的不足,利用噪声鲁棒对应的反向交叉熵(RCE)对称增强CE,避免CE 存在标签噪声的欠学习和过度拟合问题,但在实际应用中容易产生混淆。

2.2.2 基于图论的方法

实际数据集往往包含各种人为因素或测量误差引起的标签噪声,导致训练过程中可能产生错误标注,从而误导分类器的训练,严重降低分类性能。现有的隐式处理的方法中,通常是在经验风险最小化框架下通过各种替代损失函数去解决,但需要充分的先验信息。

文献[20]提出一种新的半监督学习范式、一种基于图的SSL 算法,称为不充分和不正确监督下的半监督学习(SIIS),通过一个图来链接数据点,使标签信息可以沿着图的边缘从缺乏标签的实例传播到没有标签的实例。SIIS 采用图趋势滤波(GTF)和平滑特征基追踪(SEP)对初始的带噪标签进行过滤,可以同时处理标签不足和标签不准确的问题。适用于图像、文本和音频等实例,当有限标记实例被错误标记过多时,训练时则稍显困难。

将实例特征视为边信息,并将标签噪声去除问题定义为矩阵恢复问题,方法称为通过侧信息处理标签噪声。具体地,将观察到的标签矩阵分解2 两部分之和。其中,第一部分揭示了真实的标签,可以通过对边信息进行低秩映射得到;第二部分采用行稀疏矩阵对不正确的标签进行建模。分析可知,该方法的优点体现在3 个方面:

(1)该策略具有较强的恢复能力,并通过大量的边信息使理论工作得到了充分的论证。

(2)借助学习到的投影矩阵,可以直接处理多类情况。

(3)模型设计只需要非常弱的假设,使得LNSI适用于广泛的实际问题。

此外,本次研究从理论上推导了LNSI 的泛化界,并证明了LNSI 的期望分类误差是上界的。在多种数据集(包括UCI 基准数据集和实际数据集)上的实验结果证实了LNSI 在标签噪声处理方面的优越性。

文献[21]提出一类损失函数的若干充分条件,使多类别分类问题在该损失函数下的风险最小化,能够内在地容忍标记噪声(LNSI),该方法通过研究深度网络中广泛使用的损失函数,证明其基于误差的平均绝对值的损失函数对标记噪声具有鲁棒性,适用于任何多类分类器学习且风险最小化。但当数据集过于复杂会直接导致分类器的性能变差。表2即展示了隐式学习的去噪方法中存在的缺陷。

表2 隐式处理算法缺陷总结Tab.2 Summary of implicit processing algorithms defects

综上所述,在实例相关标签噪声算法研究中,显式和隐式方法对其处理都有各自的优点。显式处理会对噪声本身进行建模,并在训练过程中使用建模后的信息来获得更好的性能;而隐式处理则通过图论或鲁棒性等方式对其进行研究。通过显式和隐式处理方法可以看出,基于实例相关标签噪声算法的研究中还存在许多不足,在未来,对于大噪声率的处理还需要做更进一步的探讨研究。

3 不同算法的对比实验

(1)数据集及参数设置。通过使用2 种基准数据集对实例相关标签噪声的算法进行对比验证,文中使用CIFAR10 和CIFAR100,见表3。这些数据集在文献中被广泛用于标签噪声的评估。为了更好地分析和比较算法的性能,对于所有实验,选取其动量为0.9,初始学习率为0.001,批处理大小为128,运行200epoch。由于所有数据集都是干净的,所以本文通过手动标注错误标签,噪声率选为20%、50%和80%。

表3 数据集参数Tab.3 Data set parameters

(2)性能测试。多是使用2 种方式:测试精确度和标签精确度。其中,测试精确度是正确预测数和测试数据集数之比,而标签精确度则是干净标签数和所有选定标签数之比。本文只使用测试精确度对所有算法进行测试,选取5 种算法进行实验,并对比各类算法的最后50 个epoch的精确度,见表4。

表4 中展示了CIFAR-10 和CIFAR-100 基线方法的实验对比结果。在噪声率为0.2、0.5 和0.8的情况下,验证了每种方法的性能。其中,显式方法有PENCIL、Divide MIX,隐式方法包含GCE、SL。即如在2 个数据集上看到的,所有方法都不适用于高噪声的情况,总地来看,显式方法中Divide MIX 方法相较于显式方法中其他2 个方法的测试精度较高,在数据集CIFAR-10 噪声率为20%上测试精度达到94.53%。在隐式方法中,SL 方法比GCE 方法较好,但在CIFAR-10 噪声率为80%的训练上失效,在CIFAR-100 噪声率为80%上的测试精度较为理想。

表4 基于实例相关标签噪声算法测试精度Tab.4 Test accuracy of the algorithm based on instance-related label noise %

4 结束语

本文主要讨论基于实例相关标签噪声处理算法问题,通过显式处理和隐式处理方法系统性分析可知,基于实例相关标签噪声问题更接近于实际应用,但也存在一些不足。现阶段,基于实例相关标签噪声的消除算法都不适用于数据集噪声率较大的情况,当噪声率极大时可能会导致无法工作。尽管标签噪声接近实际问题的处理,但并不能泛化为实际数据的各类情况。虽然能够处理错误的标签,但一些相邻的正确标签也会一并加以处理,若想得到较为干净的标签,过度清洁还会使得分类器性能下降。

标签噪声消除问题在大数据人工智能领域一直都是研究热点,然而标签噪声消除研究旨在将其应用于现实生活中,基于实例相关标签噪声消除问题的研究能够很好地链接实际应用,解决现实世界中存在的噪声问题。现阶段,对于实例相关标签噪声消除的研究仍在继续,且具有广泛性、实用性、可实现性等特点,未来有关基实例相关标签噪声的各类研究也会越来越多。

猜你喜欢

实例标签损失
胖胖损失了多少元
玉米抽穗前倒伏怎么办?怎么减少损失?
无惧标签 Alfa Romeo Giulia 200HP
不害怕撕掉标签的人,都活出了真正的漂亮
菜烧好了应该尽量马上吃
让衣柜摆脱“杂乱无章”的标签
科学家的标签
损失
完形填空Ⅱ
完形填空Ⅰ