APP下载

基于YOLO v5s改进模型的玉米作物病虫害检测方法

2023-02-26施杰林双双罗建刚杨琳琳张毅杰顾丽春

江苏农业科学 2023年24期
关键词:注意力机制目标检测

施杰 林双双 罗建刚 杨琳琳 张毅杰 顾丽春

摘要:针对玉米作物病虫害目标检测中由于图像背景复杂、无关因素干扰较多而导致的对病虫害目标检测效果不理想等问题,采用深度学习技术,提出一种基于YOLO v5s改进模型的玉米作物病虫害检测方法。该方法通过引入无参SimAM注意力机制对YOLO v5s模型進行改进,利用该机制能更全面地评估模型特征权重,以增强玉米病虫害的特征,削弱复杂背景和无关信息的干扰,从而提高模型的检测性能。同时,将模型的损失函数由CIOU替换为EIOU,可使病虫害预测框更加接近真实框,以提升模型检测的准确率。通过自建的玉米病虫害数据集对模型进行试验对比,结果表明,YOLO v5s(EIOU+SimAM)改进模型的精确率为94.6%,召回率为83.4%,平均精度均值为90.1%。经比较发现,改进模型比原始模型在上述3个指标方面分别提升了5.4、0.5、1.9百分点,说明YOLO v5s(EIOU+SimAM)模型对玉米病虫害检测具有较强的鲁棒性和泛化性。

关键词:玉米作物病虫害;YOLO v5s改进模型;注意力机制;EIOU;目标检测

中图分类号:S126;TP391.41  文献标志码:A

文章编号:1002-1302(2023)24-0175-09

玉米是我国主要的粮食作物,其种植面积和产量长期稳居三大谷物之首。近年来,玉米饲用消费和工业消费均持续增长,玉米产业的健康稳定发展对国家粮食安全意义重大[1]。研究发现,玉米生长期间的病虫害问题是影响其产量、质量的主要因素。因此,对玉米常见病虫害进行早期诊断与防治是获得玉米丰产的重要措施[2-3]。

农作物在种植期间的传统管理模式主要依靠人工来观测病虫害,存在主观性强、工作量大等问题。随着人工智能和大数据技术的不断发展,利用基于深度学习的机器视觉技术对图像形状、颜色及纹理等特征信息进行提取,能够有效解决农作物种植期间病虫害检测准确率低、效率低等问题,也是农作物种植管理智能化的重要研究方向[4-7]。目前,国内外研究者在将深度学习和机器视觉技术应用于农作物管理方面开展了大量研究。Woebbecke等通过图像数字化对叶片形态特征进行识别与检测,实现了对单子叶植物与双子叶植物的分类,其准确率达到60%~80%[8]。El-Faki等研究了一种基于颜色特征的杂草识别方法,具有不易受拍摄距离、遮挡等因素影响的优点,试验结果表明,该方法对小麦、杂草的识别率分别达到了54.9%、62.2%[9]。毛文华等研究了玉米叶苗期植株、株心具有的不同特征,提出了一种利用玉米株心颜色特征识别田间杂草的方法,结果显示,玉米植株、杂草的正确识别率平均分别为88%、84%[10]。孟庆宽等提出一种基于轻量卷积神经网络结合特征信息融合机制的改进单步多框检测器模型,通过构建轻量化前置基础网络替代SSD模型中的VGG16网络以提高图像特征提取速度,将深层语义信息与浅层语义信息进行融合以提高对小尺寸作物与杂草的检测准确率,最终结果显示,平均精度均值为88.27%,同时检测速度与参数量有较大改善[11]。徐会杰等提出了YOLO v3-Corn的玉米叶片病虫害检测模型,该模型使用Darkknet-53作为特征提取网络,并用聚类算法选取先验框分别匹配到检测层中进行目标识别,模型检测的精度、召回率分别为93.31%、93.08%[12]。胡文泽等研究了玉米幼苗的检测问题,对Cascade R-CNN模型进行了改进,使用残差网络和特征金字塔作为特征提取器,使玉米幼苗检测的平均精度达到91.76%[13]。

综上所述,目前的研究普遍存在模型对关键特征信息关注度不够的问题,容易导致预测结果不准确;此外,还存在未充分考虑目标真实框与预测框之间关系等问题。因此,本研究提出一种基于YOLO v5s改进模型的玉米作物病虫害检测模型,该模型在YOLO v5s模型基础上,通过在backbone区域引入无参SimAM注意力机制,利用该机制全面评估特征权重,以减弱复杂背景与无关信息的干扰,增强玉米病虫害的特征信息,从而提高模型的检测性能;同时,采用EIOU损失函数对模型预测框与真实框之间的距离进行评估,以提升检验框检测的准确性;最后,通过在自建数据集上进行试验,以验证改进模型的有效性。

1 材料与方法

1.1 数据采集

本研究目标检测对象为玉米病虫害图像。研究发现,黏虫、灰飞虱、锈病和斑病是玉米生长过程中最常见的病虫害,也是影响玉米产量和质量的主要因素之一,其病虫害样本见图1[14-16]。

数据集的质量会直接影响模型训练后的鲁棒性、泛化性,为了减小数据集对模型的影响,本研究自建了玉米病虫害数据集。数据集的数据来源如下:在云南农业大学玉米种植试验田内采集的图像、在云南省昭通市昭阳区玉米种植田内采集的图像和源自网络的玉米病虫害图像。图像的采集时间在2022年7—9月,为满足数据集多样性的要求,分别在晴天、阴天和雨天,以正面、侧面、仰视等不同拍摄角度进行数据图像的采集,包含密集、稀疏、重叠、遮挡、顺光、逆光等不同背景噪声的图像。图2为采集的部分图像样本。

1.2 数据集的制作

首先,对采集的图像数据进行旋转、平移、变亮、变暗、高斯噪声、椒盐噪声等数据增强操作,以实现数据集的扩展和多样化,从而提高模型训练的鲁棒性与泛化性。然后,采用labelImg工具对经数据增强后的1 985张图像进行手动特征标注,分别将玉米黏虫、玉米灰飞虱、玉米锈病、玉米斑病标注为N、H、X、B 4个类别,并将其类别信息和位置信息保存为XML格式文件,进而再转换为YOLO v5s所需要的txt格式文件。最后,划分训练集、验证集和测试集,以供模型训练和测试时使用。标注时需特别注意的是,由于数据量较大,为了避免人工标注时因疲倦而造成误差,每标注0.5 h需休息5 min;为了避免由不同人标注而产生的细小差别,所有标注均为1人完成,再由1人检查以保证数据集标签的准确性。表1为玉米病虫害图像数据集的详细信息。

1.3 YOLO v5s的改进

1.3.1 YOLO v5s模型 YOLO系列算法采用回归思想,凭借检测精度高、推理速度快等优势,能够快速完成目标检测任务,在很多领域都取得了较为满意的结果,已经成为主流算法之一[17-19]。随着技术的发展,YOLO v5s一直被各领域的学者完善与优化,并展现出不错的性能。YOLO v5s算法由输入端、主干网络、颈部网络以及预测头构成[20]。

(1)输入端。输入端具有Mosaic数据增强、自适应锚框计算和自适应图片缩放功能。数据增强沿用了YOLO v4的Mosaic数据增强方法,通过随机缩放、裁减增加了大量小目标,从而加强了网络对小目标的提取能力,增强了网络的鲁棒性,加快了网络的训练速度[21]。自适应锚框计算会在每次训练时自适应地计算不同训练集中的最佳锚框值。自适应图片缩放功能采用自适应添加最少黑边的方法,有效改善了缩放填充引起信息冗余进而导致网络推理速度慢。

(2)主干网络。主干网络由CBS、CSP1_X、SPPF等模块构成。CBS模块由卷积操作、批量归一化和激活函数组成。CSP1_X模块将输入分为2个分支,其中1个分支在卷积操作后进行Resunit操作,另1个分支在卷积操作后进行Concat操作,从而增强了特征融合能力,让模型学习到更多图片特征。

(3)颈部网络。这是采用加强特征提取网络特征金字塔并结合路径聚合的结构,通过上采样、下采样得到2个特征并进行融合,使不同尺寸特征图都能包含检测目标语义、特征信息,从而保证对不同尺寸图片的准确预测,提升了网络特征的提取能力,增强了模型对小目标的敏感度[22-23]。YOLO v5s 中的卷积操作采用CSP2_X模块,有效地提升了网络的特征融合能力。

(4)预测头。YOLO v5s以CIOU_Loss作为损失函数,数值越小表明预测结果越好,从而改善模型的预测效果。网络采用加权非极大值抑制对多个目标进行筛选,保留最优目标框,提高目标识别的准确性[24]。

1.3.2 SimAM注意力机制 由于背景中存在杂草、土地,加上玉米种植密集导致的光线遮挡等问题,使得对玉米病虫害的目标检测更为复杂。为了降低复杂背景对病虫害目标检测的干扰,研究者将采集的图像进行去背景等处理,但效率较低。鉴于病虫害特征信息在图像中的占比较小,模型需减少对无关特征信息的关注度,而不用均衡對图像中所有信息的关注度。因此,在YOLO v5s中引入了注意力机制(attention mechanism,AM)。注意力机制是机器学习中的一种数据处理方法,已被广泛运用于计算机视觉领域。注意力机制本质上与人类视觉系统极为相似,其对输入图像中标注的特征进行学习,让网络学习到图像中需要关注的部分,并更新权重分布,使模型作出更准确的判断。SimAM注意力机制有自身的独特优势,它与通道注意力、空域注意力不同,无需引入额外参数就能为特征图推导出3D注意力权值。

在SimAM中,具有更多信息的神经元与其相邻神经元相比通常表现出不同的放电模式,并会对相邻神经元产生空间抑制现象,在处理相关任务时其被赋予更高权重[25]。在玉米病虫害检测任务中,SimAM能够更加全面地评估特征权重,以增强玉米病虫害的特征,减弱复杂背景与无关信息干扰,从而增强模型的鲁棒性和泛化能力,提升检测性能。

SimAM通过能量函数[公式(1)~公式(4)]对每个神经元进行评估,神经元与其相邻神经元之间依据能量高低进行区分,能量越低表明与其相邻神经元的区分度越高,也就越重要。

式中:M为能量函数数量;E为每个通道上的能量函数;t为输入特征的目标神经元;X为输入的特征,t∈X;λ为超参数;μ为X中每个通道上的均值;σ2为X中每个通道上的方差;X~为增强后的特征。

1.3.3 损失函数的改进 在模型训练中损失函数发挥了重要作用,它能够评估模型预测框与真实框之间的距离,距离越接近表明损失函数值越小。针对不同检测问题,选择适合的损失函数可以使模型在训练时收敛更快、定位更精确、效果更好。

在现有的损失函数中,交并比(intersection over union,IOU)是大多数目标检测算法选择作为预测框与真实框之间的距离的衡量标准[26]。从数学上看,IOU等于2个矩形框的交并比,也就是检测图像中目标真实框与模型预测框重叠区域的面积与两框整体所占区域的面积之比,IOU损失函数计算公式如下:

式中:B为目标真实框所占面积;Bi为模型预测框所占面积,LIOU∈(0,1)。

当真实框与预测框重叠区域的面积越大时,LIOU越小,预测出的物体区域就越准确。但是,当真实框与预测框没有完全重叠或完全不重叠时,IOU便无法反映二者的重合度和距离,使得模型无法进行训练,这时便可用CIOU损失函数来评估模型预测框与真实框之间的距离。CIOU包括两框之间的中心点距离、纵横比和重叠面积信息,使目标边框回归更加稳定。CIOU损失函数的计算公式如下:

式中:h为预测框的高;w为预测框的宽;hgt为真实框的高;wgt为真实框的宽;b为预测框中心点;bgt为目标框中心点;ρ2为两框中心点之间的欧式距离;c同时包含两框最小闭包矩形框的对角线距离。

虽然CIOU损失函数弥补了IOU损失函数的不足,但还是忽略了边界框的尺寸与其置信度之间存在的真实差异。针对这一问题,Zhang等提出了有效交并比损失函数(efficient intersection over union,EIOU)[27]。EIOU的惩罚项是将纵横比的影响因子拆开,以计算目标框和锚框的长、宽,它包括IOU损失、中心点距离损失和宽高损失3个部分,其中宽高损失直接使目标盒与锚盒的宽度与高度之差最小。EIOU-Loss公式如下:

式中:ch为覆盖预测框和真实框的最小外接框的高;cw为覆盖预测框和真实框的最小外接框的宽。

在边框回归损失中,EIOU损失函数解决了其他损失函数中存在的问题,表现出良好的性能,所以本研究将采用EIOU Loss损失函数对模型进行改进。

2 结果与分析

2.1 试验环境

本试验是基于深度学习框架Pytorch进行的模型构建与改进,在64位Windows 10系统上进行模型训练与测试。试验平台参数:CPU为AMD RYZEN R7 6800H 3.20 GHz,内存为16 G,GPU为NCIDIA GE Force RTX 3060,显存为6 G。试验环境:Python 3.8,Pytorch 1.10.1。为了提高网络训练速度,用GPU进行加速,软件版本为CUDA 11.3、CUDNN 8.2.1。

2.2 评价指标

在玉米病虫害检测模型的试验中,本研究采用精确率(precision,P)、召回率(recall,R)和平均精度均值(mean average precisoin,mAP)等作为性能评价指标,具体计算公式如下:

式中:TP为检测正确的样本数量;FP为检测错误的样本数量;FN为检测遗漏的样本数量;K为检测类别数;AP为P-R曲线围成的面积;P为检测正确的样本占所有检测样本数量的比例;R为检测正确的样本占所有检测样本中正确样本数量的比例;mAP为所有类别AP的平均值。

2.3 试验对比与分析

2.3.1 试验对比 为验证本研究提出的YOLO v5s改进模型的优越性,在相同试验环境下使用同一数据集,与具有Alpha IOU、SIOU、EIOU损失函数的YOLO v5s(Alpha IOU)、YOLO v5s(SIOU)模型,以及分别加入CA、SE、CBAM注意力机制的YOLO v5s(CA)、YOLO v5s(SE)、YOLO v5s(CBAM)模型进行对比试验。

(1)不同损失函数改进的YOLO v5s测试结果对比。YOLO v5s原始模型使用的损失函数是CIOU,从表2可以看出,在模型中分别加入Alpha IOU、SIOU和EIOU损失函数后,相比原始模型,R虽然有所下降,但是P都有明显提升,分别提高了3.5、3.4、6.9百分点,尤其以EIOU损失函数的提升最为显著。P提升说明EIOU损失函数在计算预测框与真实框之间的距离关系方面更加准确。

(2)不同注意力机制改进的YOLO v5s测试结果对比。 由表3可以看出, 无论在YOLOv5s原始

模型中加入何種注意力机制模块,与原模型相比在性能上都有明显提升。例如,添加CA注意力机制后的P比原始模型提高了3.5百分点,添加SE注意力机制后的R比原始模型提高了1.9百分点,添加CBAM注意力机制后的R、mAP分别比原始模型提高了0.7、2.4百分点,添加SimAM注意力机制后的R比原网络提高了1.3百分点。R的提高说明,添加注意力机制能让模型更好地评估不同特征的权重占比,使目标检测结果更加准确。

(3)损失函数与注意力机制同时改进的YOLO v5s测试结果对比。在上述试验中,分别对YOLO v5s中的损失函数、注意力机制开展了改进对比试验。下面将进一步探究同时改进注意力机制和损失函数对模型性能的影响。从表2可以看出,EIOU损失函数的效果最优,因此将EIOU固定为模型的损失函数,只需将其分别与CA、SE、CBAM和SimAM注意力机制进行组合对比即可。由表3、表4可知,改进的YOLO v5s分别比原始模型的P提高了4.3、5.0、2.5、5.4百分点;CA、SE注意力机制的R分别降低0.4、2.7百分点,CBAM和SimAM注意力机制提高1.0、0.5百分点;CA、CBAM和SimAM注意力机制的mAP分别提升了0.4、 1.1、1.9百分点,SE 注意力机制降低0.9百分点。尤其是YOLO v5s(EIOU+SimAM)模型的P、R和mAP总体优于其他改进模型,由此证明本研究提出的改进模型能对玉米作物病虫害进行有效检测。

2.3.2 改进模型的性能试验 为了进一步验证YOLO v5s(EIOU+SimAM)模型的性能,将其与YOLO v5s原始模型进行性能对比。训练集在YOLO v5s(EIOU+SimAM)上经过200轮迭代后, P为92.2%,R为94.0%,mAP为95.2%。从图3可以看出,改进模型的性能均比原始模型有显著提升。

采用测试集中的196张玉米作物病虫害图像对YOLO v5s(EIOU+SimAM)、YOLO v5s原始模型进行测试。从表5可以看出,总体上改进模型的P、R、mAP相比原始模型分别提高了5.4、0.5、1.9百分点。在对黏虫、锈病和斑病的图像检测时发现,改进模型的P分别较原始模型提高了4.6、12.1、3.8百分点。在对黏虫、灰飞虱的图像进行检测时发现,与原始模型相比,改进模型的R分别提高了7.6、3.1百分点。在对黏虫、灰飞虱和锈病的图像进行检测时发现,与原始模型相比,改进模型的mAP分别提升了为4.7、2.4、1.9百分点。试验结果表明,边界回归损失函数的改进使得模型能更准确地定位和识别黏虫、锈病和斑病图像,P也得到明显提高。在模型中添加了注意力机制模块后,能够抑制背景干扰,提高特征提取能力,R得到提高。将二者结合同时对模型进行改进,能让模型的P、R、mAP都有显著提升。由此可见,YOLO v5s(EIOU+SimAM)模型能够更有效地对玉米作物病虫害进行检测。

通过上述试验对比与分析,可以验证本研究中改进的YOLO v5s(EIOU+SimAM)模型对玉米病虫害的检测效果最佳。为了更清楚地说明每个改进点对检测效果的提升效果,从测试集中随机选取玉米作物病虫害图片(图4)进行讨论。

在图4-a为YOLO v5s原始模型检测结果,图中出现8处错检、3处漏检;图4-b为修改损失函数时模型检测结果,图中出现3处错检、5处漏检;图4-c为添加注意力机制时检测结果,图中出现3处错检、0处漏检;图4-d为两者同时改进时模型检测结果,图中出现0处错检、1处漏检。虽然YOLO v5s(EIOU+SimAM)模型改进方法有1处漏检,但是相比于其他模型改进方法,在定位、识别效果和置信度值方面都有显著提升。

3 结论

本研究基于损失函数、注意力机制改进 YOLO v5s 模型的玉米病虫害检测方法,并通过试验对比进行模型验证,主要结论如下:(1)通过对模型的损失函数和注意力机制2个方面的改进,提出了YOLO v5s(EIOU+SimAM)的改进模型。与原始模型相比,其在特征提取、预测框回归精度等方面效果有显著提升,具有较高的准确率和良好的鲁棒性。(2)在不同环境下采集了玉米病虫害图片,通过数据增强方法对图片进行扩充,建立了玉米病虫害数据集,并将该数据集用于改进模型的试验验证。(3)本研究建立的数据集仅包含4类常见的玉米作物病虫害,后续还需要进一步扩充数据集以增加模型的泛化能力。同时还需研究网络的轻量化问题,以便将其移植到嵌入式平台。

参考文献:

[1]代瑞熙,徐伟平. 中国玉米增产潜力预测[J]. 农业展望,2022,18(3):41-49.

[2]安艳丽. 玉米常见病害的识别与防治[J]. 农业与技术,2017,37(18):44.

[3]王文明. 玉米常见病虫害防治措施探讨[J]. 农业开发与装备,2017(12):149,151.

[4]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[5]Liu W,Anguelov D,Erhan D,et al. SSD:single shot multibox detector[C]//European Conference on Computer Vision 2016. Cham:Springer International Publishing,2016:21-37.

[6]陳桂珍,龚声蓉. 计算机视觉及模式识别技术在农业生产领域的应用[J]. 江苏农业科学,2015,43(8):409-413.

[7]周 维,牛永真,王亚炜,等. 基于改进的YOLO v4-GhostNet水稻病虫害识别方法[J]. 江苏农业学报,2022,38(3):685-695.

[8]Woebbecke D M,Meyer G E,Von Bargen K,et al. Color indices for weed identification under various soil,residue,and lighting conditions[J]. Transactions of the ASAE,1995,38(1):259-269.

[9]El-Faki M S,Zhang N,Peterson D E. Weed detection using color machine vision[J]. Transactions of the ASAE,2000,43(6):1969-1978.

[10]毛文华,王 辉,赵 博,等. 基于株心颜色的玉米田间杂草识别方法[J]. 农业工程学报,2009,25(增刊2):161-164.

[11]孟庆宽,张 漫,杨晓霞,等. 基于轻量卷积结合特征信息融合的玉米幼苗与杂草识别[J]. 农业机械学报,2020,51(12):238-245,303.

[12]徐会杰,黄仪龙,刘 曼. 基于改进YOLO v3模型的玉米叶片病虫害检测与识别研究[J]. 南京农业大学学报,2022,45(6):1276-1285.

[13]胡文泽,王宝聚,耿丽杰,等. 基于Cascade R-CNN的玉米幼苗检测[J]. 农机化研究,2023,45(5):26-31.

[14]陈玉冲,龙梦玲,郭 辉,等. 灰飞虱研究的文献计量分析[J]. 江苏科技信息,2021,38(15):22-25,53.

[15]杨春媛. 玉米常见病害的发病症状及防治措施[J]. 乡村科技,2017(24):63-64.

[16]路兴涛,吴翠霞,张 勇,等. 玉米灰飞虱与粗缩病的发生规律及综合防治策略[J]. 安徽农业科学,2013,41(19):8168-8169.

[17]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Las Vagas:IEEE,2016:779-788.

[18]Zhai N. Detection using YOLO v5n and YOLO v5s with small balls[C]//International Conference on Computer Graphics,Artificial Intelligence,and Data Processing. SPIE,2022,12168:428-432.

[19]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[J]. arXiv,2020,2004:10934.

[20]郭 磊,王邱龙,薛 伟,等. 基于改进YOLO v5的小目标检测算法[J]. 电子科技大学学报,2022,51(2):251-258.

[21]范晓飞,王林柏,刘景艳,等. 基于改进YOLO v4的玉米种子外观品质检测方法[J]. 农业机械学报,2022,53(7):226-233.

[22]王鹏飞,黄汉明,王梦琪. 改进YOLO v5的复杂道路目标检测算法[J]. 计算机工程与应用,2022,58(17):81-92.

[23]孙丰刚,王云露,兰 鹏,等. 基于改进YOLO v5s和迁移学习的苹果果实病害识别方法[J]. 农业工程学报,2022,38(11):171-179.

[24]李惠惠,范军芳,陈启丽.改进YOLO v5的遥感图像目标检测[J]. 弹箭与制导学报,2022,42(4):17-23.

[25]彭红星,何慧君,高宗梅,等. 基于改进ShuffleNetV2模型的荔枝病虫害识别方法[J]. 农业机械学报,2022,53(12):290-300.

[26]Yu J H,Jiang Y N,Wang Z Y,et al. Unitbox:an advanced object detection network[C]//Proceedings of the 24th ACM International Conference on Multimedia. New York:ACM,2016:516-520.

[27]Zhang Y F,Ren W,Zhang Z,et al. Focal and efficient IoU loss for accurate bounding box regression[J]. Neurocomputing,2022,506:146-157.

猜你喜欢

注意力机制目标检测
面向短文本的网络舆情话题
基于自注意力与动态路由的文本建模方法
基于深度学习的问题回答技术研究
基于LSTM?Attention神经网络的文本特征提取方法
基于注意力机制的双向LSTM模型在中文商品评论情感分类中的研究
InsunKBQA:一个基于知识库的问答系统
视频中目标检测算法研究
行为识别中的人体运动目标检测方法
移动机器人图像目标识别
基于背景建模法的运动目标检测