APP下载

基于改进YOLOv5-DeepSORT算法的公路路面病害智能识别

2023-10-12高明星关雪峰范井丽姚立慧

森林工程 2023年5期
关键词:注意力损失病害

高明星,关雪峰,范井丽,姚立慧

(1.内蒙古农业大学 能源与交通工程学院,呼和浩特 010018;2.内蒙古路桥集团有限责任公司,呼和浩特 010051;3.赤峰市公路管护与运输保障中心,赤峰 024000)

0 引言

裂缝与坑洞是路面中出现较多的病害类型,其严重影响路面结构的强度及驾驶安全,因此快速准确检测路面病害信息并清晰直观传达给养护作业人员具有重要的工程意义。传统的公路养护检测方式大多采用人工作业,由于作业周期长、主观性强和影响交通等,很难适应公路养护快速发展的需求。对于公路检测车这种路面病害检测方式,只能获取行驶车道上病害的局部特征,且采集质量与路况呈现正相关,在颠簸路面采集的照片往往存在大量失焦与运动模糊情况。近年来,结合无人机(UAV)与机器视觉的检测方法受到大量关注[1-3]。

传统机器视觉的道路病害检测方法是通过人工提取单一病害的相应特征进行检测,容易受多种干扰因素影响,普适性较差,如程玉柱等[4]基于布谷鸟算法搜索路面裂缝,通过得到分割阈值实现裂缝识别,但由于实际情况中背景复杂,导致阈值的泛化性较差,实际工程价值较低。唐伟等[5]结合改进MASK匀光与K-means聚类方法实现对桥梁裂缝的提取,改善亮度对提取效果的影响,但该方法考虑的影响因素较少,普适性较差。

随着近年来深度学习技术高速发展,各种道路病害检测方法得到了井喷式的研究和应用[6-8]。Zhang等[9]将深度卷积神经网络用于裂缝信息提取的研究中,该算法展现出比传统方法更高的准确度。Mandal等[10]研究了CSPDarknet53、Hourglass-104和EfficientNet 等不同骨干模型对裂缝识别的效果,最后YOLO模型取得最佳效果,得到了59%准确率和57.3%召回率。李海东[11]利用二阶段目标检测算法Faster R-CNN模型检测路面破损,获得了较高的准确率和召回率,但其无法满足实时性的要求。章世祥等[12]采用Mask R-CNN实现对路面裂缝的检测与分割,但只能对单帧图片中的病害做出实例分割。斯新华等[13]基于YOLOv4实现对桥梁钢结构表面病害的检测,但检测精度只达到70.8%,精度较低。罗晖等[14]基于Focal loss改进YOLOv4进行路面病害检测,与其他目标检测方法相比,检测精度较高。廖延娜等[15]通过热力图改进YOLOv4解决检测框重叠及定位问题,这种方法可以解决裂缝在一张图片中被重复检测的问题,但当同一裂缝在不同照片中重复出现时,仍会被重复检测。李永上等[16]通过改进YOLOv5s网络与DeepSORT网络实现对监控视频下的车流量计数,但其未验证在运动场景下的检测性能。

通过对研究现状分析发现,目前大多数利用深度神经网络检测病害的方法研究了路面复杂纹理及表面干扰对病害识别的影响,针对排除图像中路域以外干扰信息的研究较少。实际检测过程中为快速收集路面病害信息,通常会采取录制视频或是设定拍摄间隔阈值进行拍照采集,因此在连续帧图像中会出现大量重复的病害信息,传统的检测算法只可根据类别信息对检测到的病害分类保存,无法进一步区分重复出现的病害,造成大量冗余的检测结果,导致检测人员进行筛选耗时较长,实际工程价值较低。多数研究侧重于获得病害在图片中的形位信息,忽略了检测路段总体的病害数量信息。检测车通常只能采集其行驶路线上的局部病害信息,不能获取待检公路的全局病害信息。

综合以上问题,为保证在多尺度与复杂背景情况下检测路面病害的准确性与实时性,本研究提出一种基于改进YOLOv5-DeepSORT与无人机系统的路面病害检测与重识别方法。改进的检测算法与主流检测算法相比,在保持轻量高效的同时,能准确检测出路面病害,构建的病害重识别二级检测机制实现对病害的重识别与量化统计,较原模型的计数精度有较大提升。

1 理论基础

1.1 YOLOv5目标检测算法

在目标检测任务中,模型通常分为单阶段与双阶段2种,YOLO模型是一种高效准确的单阶段目标检测模型[17-20],双阶段目标检测算法则以R-CNN系列为代表,YOLOv5算法在检测无人机采集的数据时精度及速度达到了较好的平衡[21],因此本研究选择YOLOv5算法作为多尺度道路病害检测任务的基准模型。其网络结构大致分为3个部分:Input输入端、Backbone主干网络、Head输出端。第一部分输入端控制着检测的类别数(nc)、通道的缩放系数(depth_multiple)、C3模块层的缩放系数(width_multiple)及锚框(anchors)个数,并在训练阶段使用自适应锚框计算和马赛克(Mosaic)数据增强等方法;第二部分主干网络实现特征提取功能,包括Focus模块、Conv模块、C3模块和空间金字塔池化(SPP)[22]模块;第三部分Head分为2个结构,结构1是基于PANet的特征融合模块,结构2为检测头部分,负责提取模型检测结果,结构如图1所示。

图1 YOLOv5模型网络结构Fig.1 YOLOv5 model network structure

1.2 基于DeepSORT的病害统计

在检测车或无人机采集的道路视频画面中,由于画面的连续性,同一个病害会出现在不同帧的画面中,这往往需要大量时间剔除重复出现的病害,而传统的目标检测算法无法对重复出现的病害进行判断,因此本研究利用多目标跟踪算法(DeepSORT)提取视频中出现的路面病害特征,并对每个目标进行轨迹跟踪及ID分配,通过OpenCV模块构建计数单元与效果可视化,实现快速直观筛查重复病害并统计检测路段中的病害数量信息。

DeepSORT算法为SORT算法的改进版本,SORT算法首先使用卡尔曼滤波算法(Kalman filetr)来预测目标的运动状态,然后将轨迹预测框与目标检测网络输出预测框的IOU 值作为匹配因素,通过匈牙利算法(Hungarian algorithm)完成数据匹配,实现目标跟踪,SORT算法运算较快,但当病害被车辆遮挡后重新出现时会存在病害ID变化的问题。DeepSORT在SORT基础上对新产生的轨迹进行筛选,将新轨迹分为确定态和不确定态,对于确定态的轨迹,其在和预测框连续失配30次后被删除,而不确定态的轨迹,必须和预测框连续匹配3次才能转为确定态。DeepSORT算法结合运动特征和外观特征来计算代价矩阵,其通过引入神经网络提取的目标特征信息作为匹配准则,利用目标检测预测框与轨迹预测框之间的马氏距离(Mahalanobis distance)表示目标的运动特征,计算目标框与轨迹框之间的余弦距离作为目标的外观特征,并对两者加权求和得到代价矩阵,进而根据该代价矩阵使用匈牙利算法进行目标的匹配。其利用级联匹配解决目标被遮挡时的 ID 切换问题,级联匹配根据丢失目标的次数对轨迹进行优先级排序,对更活跃的轨迹进行优先级排序可以显著减少 ID 切换。即该算法主要分为轨迹跟踪模块和数据匹配模块,其中轨迹跟踪模块通过匹配轨迹和目标框进行卡尔曼滤波预测和更新,数据匹配模块利用级联匹配和IOU匹配将轨迹框与目标框关联。

OpenCV(Open Source Computer Vision Library)是一款常用的处理计算机视觉问题的开源软件库,本研究通过该软件库中的函数将DeepSORT的跟踪与病害计数结果可视化。

2 改进的YOLOv5路面病害检测算法

针对公路路面病害检测过程中存在病害尺度变化大、无人机视角下存在过多的路域复杂背景和检测框精度差等问题,本研究对YOLOv5网络结构提出3点改进,命名为ECB-YOLOv5,结构如图2所示。一是通过构建ECIoU损失函数替换GIoU损失函数,本研究将EIOU[23]的宽高损失和CIOU[24]的横纵比引入GIoU损失函数中,提升预测框的预测结果,加快模型的回归速度;二是在原PANet[25]的特征融合网络结构上结合BiFPN[24]网络结构的思想,将Backbone第6层输出的中等尺度特征与中等尺度的检测头之间添加了新的特征融合通路,以构建新的重复多尺度特征融合模块,使得模型融合更多尺度的特征信息,提升模型对多尺度病害的检测能力;三是将坐标注意力机制(Coordinate Attention)[27]加入Backbone第10层,使模型更加关注病害特征,减少模型对路域外的物体做出误检,并提升检测精度。

图2 ECB-YOLOv5网络结构Fig.2 ECB-YOLOv5 network architecture

2.1 损失函数的改进

YOLOv5用以计算预测框(predicted box,PB)和真实框(ground truth,GT)差距的函数为GIoU损失函数表示,其原理是找到最小封闭矩形A,从而计算损失,见式(1)和式(2)。

(1)

LGIoU=1-GIoU。

(2)

式中:GIoU为表示广义交并比;LGIoU为GIoU损失函数;IOU为预测框与真实框的交并比;SA、SPB和SGT分别表示各框的面积。

GIoU通过重叠面积计算损失,但当检测框包含真实框时则会导致GIoU失效。目前多数研究将GIoU损失改进为CIoU损失,其通过计算中心点距离和纵横比,提升了模型的检测精度并加快了收敛速度,见式(3),其中纵横比计算因子见式(4)和式(5)。

(3)

(4)

(5)

式中:b和bgt为PB和GT中心点坐标;ρ为上述2点的欧式距离;c为能够同时包含PB和GT的最小外接框的对角线距离;α·v代表预测框纵横比拟合真实框纵横比的因子;α代表权重函数;v代表长宽比;w、wgt和h、hgt分别表示PB和GT的宽度和高度。

但纵横比描述的是相对值,并不能精确表达预测框长宽与真实框长宽的差距。本研究提出一种新的损失函数ECIoU,该损失函数与CIoU相比精确地计算了宽度损失及高度损失,见式(6)。

(6)

式中:LECIoU为ECIoU损失函数;Cw和Ch表示覆盖PB和GT的最小外接框的宽度和高度。

相比于GIoU损失函数ECIoU损失函数进一步增强损失函数的表达并加速模型收敛,提升模型的预测精度。

2.2 基于注意力机制的改进

注意力机制目前在神经网络中的应用非常广泛,其可使模型关注关键区域,即强化重要信息并抑制无效信息,同时起到结合全局信息的作用。本研究通过合理的添加注意力机制提升模型在复杂背景中准确定位病害位置的能力。主流的注意力算法会同时计算通道注意力与空间注意力,这会大大降低YOLOv5s这种轻量模型的计算速度。坐标注意力机制(Coordinate Attention,CA)将位置信息嵌入到了通道注意力中,从而快速获取对方向和位置敏感的特征图,增加模型的检测精度,使网络能在避免大量计算开销的前提下参与较大的区域特征计算,结构如图3所示。

图3 CA模块Fig.3 Coordinate Attention module

(7)

(8)

(9)

对于坐标注意力生成部分,首先级联(concat)之前模块生成的2个特征图,依次使用1×1卷积(Conv2d)、归一化模块(BN)和非线性激活函数(Act)生成中间特征图f,接下来沿着水平和竖直将f切分(Split)成2个单独的张量,再次使用1×1卷积(Conv2d)和激活函数(sigmoid)变换将2个张量变换为具有相同通道数的注意力图,最终将2个注意力图与输入特征图相乘来形成对方向和位置敏感的注意力权重。

2.3 特征融合网络的改进

YOLOv5的特征融合模块为路径聚合网络(PANet),如图4(a)所示,首先通过一条自上而下的通路进行特征融合,获得具有更高语义信息的特征图,有利于物体分类;其次通过一条自下而上的通路,获得具有更多位置信息的特征图,有利于物体定位。EfficientDet中提出的双向特征金字塔网络(BiFPN)结构如图4(b)所示,其中虚线部分可使模型重复获取初始特征信息,其使用的带权重的特征融合机制一定程度上提升了网络获取特征的能力,但增加了模型计算复杂度。

图4 特征融合网络Fig.4 Feature fusion network

本研究构建的重复特征融合网络结构如图4(c)所示,为简化模型结构并降低计算量,在PANet网络结构的基础上增加一条传递初始特征信息的通路,增强了模型对特征的提取能力,并使用级联融合作为新结构的特征融合机制,减少加权带来的计算复杂度。

3 试验与分析

3.1 数据集建立

目前公开的路面病害数据集均由手持设备或是道路检测车拍摄,只包含局部的路面病害信息。为获得完整的公路病害信息,本研究利用无人机采集病害的宏观信息并结合道路检测车获取病害微观信息,以此来构建具有多尺度病害及复杂背景的路面病害数据集。在采集阶段为保证采集质量、飞行安全、交通安全且综合考虑光照条件、拍摄角度和偏移距离等因素,设定无人机匀速飞行并垂直向下拍摄,使用的无人机型号为DJI Mini2,采集效果如图5所示。

图5 无人机采集的病害图片Fig.5 Disease pictures collected by UAV

为对所提出的ECB-YOLOv5网络进行训练验证,构建了1个含有940张图片的公路路面病害数据集。该数据集由自行采集的700张病害图片及部分公开数据集[28]中收集的240张图片构成,按照8.5∶1.5的比例划分为训练集和验证集,并进行统一的细粒度标注。本研究直接在训练阶段进行数据增强,因此未使用增强方式对数据集进行扩充。

3.2 模型训练及评价标准

模型训练均基于云平台,其显卡为Tesla V100 GPU,32.0 GB内存,试验模型基于Python3.8计算机语言及PyTorch深度学习框架构建[29]。因本研究对YOLOv5模型结构进行了修改,为保证训练结果具有可比较性,均不使用预训练权重训练,且在训练时使用统一的超参数。参与网络进行训练的单个批次图片示例如图6所示,超参数数值与数据增强方式概率见表1。

表1 超参数配置Tab.1 Hyperparameters

图6 参与训练的图片Fig.6 Take part in the training picture

在训练阶段,模型训练效果良好,损失函数曲线如图7所示,其中box_loss为ECIoU损失函数均值,该数值代表检测框的准确程度。obj_loss判断每个网格是否存在物体,该数值代表目标检测准确程度。cls_loss为分类损失均值,该数值代表分类准确程度。经过300轮训练后,box_loss、obj_loss、cls_loss均低于0.03,逐渐趋于稳定,说明在训练阶段ECB-YOLOv5网络模型各项超参数设置合理,学习效果较为理想。

图7 训练中各损失数值Fig.7 The value of each loss in training

采用mAP50、FPS(Frames Per Second)、F1分数和GFLOPs等指标作为模型性能的评价指标。mAP50表示IoU阈值为0.5时模型裂缝与坑槽的平均检测精度,反映模型对不同类别目标的综合识别能力,以mAP表示;FPS是指模型每秒推断帧数,用于衡量模型的速度指标,试验结果基于本地平台GTX960M显卡计算得出;F1分数为P(精确率,Precision)和R(召回率,Recall)的调和平均值,可以为类别数量不均衡情况下模型的性能提供综合评价;GFLOPs为1时代表每秒10亿次的浮点运算,用于衡量训练模型时的计算复杂度。

3.3 模块性能验证

为验证本研究提出的损失函数的有效性,分别训练以GIOU、EIOU及ECIOU作为损失函数的YOLOv5s模型,训练结果见表2。试验结果表明使用ECIOU损失函数的mAP相较于使用GIOU的YOLOv5s模型提升0.32%,较EIOU损失函数提升0.14%。GFLOPs值未改变,说明模型的复杂度基本不变。因此证明ECIoU有更好的性能,在后续的试验中均使用ECIoU作为模型的损失函数。

表2 不同损失函数训练结果Tab.2 Results of different loss function training

2)注意力模块性能验证

通过对比TR[30]自注意力模块(Transformer),CBAM[31](Convolutional Block Attention Module)注意力模块及CA注意力模块验证注意力机制对提升病害检测能力的有效性,试验结果见表3。模型1为基准网络的训练结果,模型2在基准网络基础上加入了CA注意力机制,与基准模型相比GFLOPs值未改变,mAP提升1.21%,FPS降低0.78帧/s,说明CA注意力模块可以有效提升模型对于病害的检测精度,但检测帧率有所下降。在基准网络加入CBAM的模型3相较于基准模型,GFLOPs增大0.2,mAP降低1.43%,FPS降低3.23帧/s,模型4在基准模型增加TR模块后GFLOPs增大0.3,mAP降低5.14%,FPS降低3.68帧/s,说明CBAM与Transformer模块在基于YOLOv5s的无人机多尺度路面病害检测任务中不能合理分配注意力权重,且占用更多的计算资源;在模型5和模型6训练结果中mAP分别降低0.86%、2.97%,且网络计算复杂度进一步加大,mAP值与单独使用CA及CBAM的模型相比较低,说明注意力机制与自注意力机制的结合并不能增强YOLOV5s模型对路面病害的检测效果。综合分析试验结果,CA注意力机制可以提升模型对病害的检测精度且FPS降低程度最小,可以满足精确度与实时性的要求,因此本研究选择CA注意力机制对YOLOv5s模型改进。

表3 注意力模块选择试验Tab.3 Attention module selection experiment

3.4 改进模型消融试验

为验证提出的ECB-YOLOV5模型的有效性,本研究逐步累加改进方法对模型进行性能验证,试验结果见表4。在消融试验中:试验2结果表明,使用ECIOU损失函数替换GIOU损失函数,mAP提升0.32%,GFLOPs未增加,FPS保持不变;试验3表明,CA注意力机制与ECIOU损失函数的结合在未增加大量计算量的情况下,模型性能提升较大,mAP较试验2增加了1.53%;试验4在试验3基础上加入了改进重复特征融合网络,mAP比基准模型提升3.11%,比试验3提升1.58%,GFLOPs增加0.3,模型复杂度略微提升,F1分数增加了2.49%,表明改进模型在处理病害数量分布不均匀的数据集时预测效果更好。由上述试验可见,随着模块逐渐加入,mAP逐步提升,F1分数总体呈现上升趋势,验证了本研究改进的模型对于公路路面病害检测的有效性。FPS在加入注意力机制和新的特征融合网络之后略微下降,但仍能满足实时检测的要求。

表4 改进模型消融试验Tab.4 Improved model ablation experiment

训练结果证明了建立的改进模型的有效性,与基准模型的mAP随着训练轮次的变化曲线如图8所示,由图8可明显看出迭代轮次在0~70时,mAP提升速度较快,随后增长速率放缓;迭代轮次在240后,mAP逐渐趋于平稳,模型训练情况稳定。在mAP快速增长阶段,达到同样的mAP改进模型所需的训练轮次更短,在mAP缓慢增长阶段,改进模型达到了更高的mAP值。

(1) 该3-面为(3,3,7)-面,由R2.1和R3.3得3-面和面上的3-点最多从7-点拿走的权值为

图8 mAP变化曲线Fig.8 mAP change curve

3.5 经典算法对比试验

为验证本文的改进网络相对于目前主流目标检测算法的优势,选择mAP与FPS作为评价指标并将改进模型与主流目标检测网络模型在本研究构建的数据集中进行对比试验,其中FPS统一由RTX A5000 GPU计算得出。试验结果见表5。

表5 经典算法对比Tab.5 Comparison of classical algorithms

本研究改进YOLOv5模型的平均检测精度最高,与Faster R-CNN、SSD、CentNet、RetinaNet、Efficientdet、YOLOv3、YOLOv4相比,改进模型的mAP分别提升了21.33%、11.63%、13.75%、41.94%、55.67%、21.13%、44.42%;FPS分别提升了63.36、41.49、18.88、42.92、56.23、38.37、48.88。

各模型平均检测精度与检测速度的关系如图9所示,X轴从左至右检测速度递减,Y轴从下至上检测精度递增,可见改进模型处于图中左上角位置,与其余主流算法相比,本研究改进算法在检测速度与平均检测精度均达到最值。该模型计算复杂度低可在低算力平台部署,便于在实际工程环境中运用。

图9 帧率与平均检测精度Fig.9 FPS with mAP

4 病害检测与统计验证

4.1 实际场景下病害检测效果

为评估改进算法在实际场景中对不同尺度病害的检测性能,在5种典型场景中对YOLOv5模型与ECB-YOLOv5模型进行检测效果对比,如图10所示,图中实线框为模型检测结果,白色虚线框为对检测不准确位置进行的人工标注。

图10(a)是在无人机高空拍摄场景下的检测效果对比,该场景中病害尺度较小,道路周围背景复杂,原模型在白框处对同一病害做出重复检测,改进后的算法准确检测出所有目标病害,说明改进模型能够精准识别小目标并有效降低误检。图10(b)是模型在光照不良图像中对病害的检测效果对比,图中白框为原模型预测框相较改进模型预测框冗余的部分,通过计算2个模型预测框与标注框的交并比得出,改进模型的预测框精度提升了23.3%,说明改进模型在低光照强度情况下预测框更加精确。图10(c)是在路面存在干扰情况下的检测效果对比,见图中白框,原模型未能排除车道线的干扰,只识别出局部裂缝,改进模型预测框精度较原模型提升了22.2%。图10(d)中由于无人机高速飞行导致采集的图像产生运动模糊的情况且存在小目标,改进模型准确检测出所有病害,而原模型在白框处误检1处病害,说明改进算法在无人机高速飞行情况下具有较好的鲁棒性。图10(e)为相机失焦情况下的检测对比,2种模型均可以检测出路面病害。结合5种典型情况下的病害检测结果分析,本研究的改进算法对复杂背景下的多尺度病害具有更好的检测能力。

4.2 病害跟踪统计

为实现对病害的全局检测与重识别,通过无人机获取路面信息,并基于YOLOv5-DeepSORT算法提取每个病害的全局特征信息并赋予唯一编号,实现对病害的重识别。通过编号信息与类别信息的双重限定,即可快速准确剔除重复的病害信息。

为实现上述效果,建立了基于YOLOv5-DeepSORT的二级检测器结构。病害计数过程如图11所示,首先通过获取目标检测器检测框的左下角坐标作为标记点,其次通过OpenCV软件库在无人机检测画面的下方设置2条检测带,随着无人机向前飞行,当标记点被上方蓝色检测带感应到时,该编号病害将被储存在缓存空间中,若继续前进使标记点被第2条检测带捕获,该编号病害将会被记录并根据病害类型及编号进行分类储存,总病害数显示在画面左上角。

图11 病害计数过程Fig.11 Disease counting process

病害数量统计测试数据由5段无人机拍摄的路面视频拼接而成,对采集的路面病害视频进行人工统计并与模型检测结果进行对比,模型对病害量的统计结果如图12所示。图12(a)为原模型的最终检测结果,其检测出38处病害,发生20处漏检,且有4处误检情况,但因检测框不稳定未被病害计数器检出,说明检测过程中原模型的检测框不稳定,计数精度较差;图12(b)为改进模型最终检测结果,其检测出54处病害,存在4处漏检及1处误检。病害量分类统计结果见表6,从左至右分别代表检测到的裂缝数量、坑洞数量及病害总数,改进算法的统计准确率达到91.38%,较原模型统计准确度提升25.86%,说明改进模型计数精度较高,可以有效降低漏检率,适合作为实现道路病害检测的算法。

表6 病害量统计试验结果Tab.6 Results of disease statistics experiment

图12 病害量统计结果Fig.12 Statistical results of disease amount

在实际检测中可能出现病害被车辆遮挡而后重新出现的情况,导致病害出现ID变化造成重复检测或漏检。通过实际场景可视化验证,改进模型的鲁棒性更强,如图13和图14所示,图13为坑洞被遮挡的前一帧,改进算法检测出2个坑洞:ID-114和ID-3,原模型仅检测出一处坑洞,随后病害被车辆遮挡而消失,图14为7帧之后该病害重新出现,病害ID-3恢复编号,目标重识别成功,ID-114则被车辆阴影遮挡导致ECB-YOLOv5漏检;而原算法则在车辆遮挡后完全丢失病害及编号。

图13 病害遮挡前Fig.13 Before the disease is occluded

图14 病害ID恢复Fig.14 Disease ID recovery

5 结论

本研究针对路面常见的裂缝及坑洞病害构建了基于YOLOv5-DeepSort框架的病害检测与重识别模型,为实际养护过程中在复杂背景下的病害检测任务及筛选冗余病害信息提供了新的思路与方法。

在构建的无人机多尺度道路病害数据集上进行的试验证明了本研究改进方法的有效性,其中ECIoU损失函数使得模型mAP较基准模型提升0.32%,加入CA注意力机制后mAP进一步提升1.21%,改进特征提取网络后的模型mAP达到89.19%,相较于基准模型提升3.11%,F1分数较基准模型提升2.49%达到0.8514。与其他检测算法相比,性能提升明显。FPS在本地平台达到26.39帧/s,满足无人机图检测病害实时检测要求。

通过实际检测效果对比,发现基于无人机的检测方法可快速准确地获取全局病害信息,并且通过构建YOLOv5-DeepSORT方法实现对病害的重识别与统计。该方法在病害量统计试验中表现出良好的准确率,相比于原始网络模型,模型统计准确率提升25.86%,达到91.38%,误检率由6.9%下降1.72%,鲁棒性强。未来的工作将丰富模型检测病害的种类,完善病害被车辆阴影遮挡时产生漏检的情况以及优化追踪网络的性能。

猜你喜欢

注意力损失病害
早春养羊需防六大病害
让注意力“飞”回来
小麦常见三种病害咋防治
葡萄病害周年防治历
胖胖损失了多少元
果树休眠期咋防病害
玉米抽穗前倒伏怎么办?怎么减少损失?
“扬眼”APP:让注意力“变现”
A Beautiful Way Of Looking At Things
一般自由碰撞的最大动能损失