APP下载

基于自动Hough变换累加阈值的蔬菜作物行提取方法研究

2019-02-21陈子文张文强李云伍李明生

农业工程学报 2019年22期
关键词:田间阈值聚类

陈子文,李 伟,张文强,李云伍,李明生,李 慧

基于自动Hough变换累加阈值的蔬菜作物行提取方法研究

陈子文1,李 伟2,张文强2,李云伍1,李明生1,李 慧1

(1. 西南大学工程技术学院,重庆 400715;2. 中国农业大学工学院,北京 100083)

为解决机器视觉对生菜和绿甘蓝两种作物在整个生长时期内多环境变量对作物行识别影响的问题,同时提高机器视觉作物行识别算法的有效性,该文提出了一种基于自动Hough变换累加阈值的多作物行提取算法。首先,选用Lab颜色空间中与光照无关分量对绿色作物进行提取,通过最优自适应阈值进行图像分割,并采用先闭后开形态学运算对杂草和作物边缘进行滤波。其次,采用双阈值分段垂直投影法对作物行特征点进行提取,通过对亮度投影视图中的目标像素占比阈值和噪声判断阈值设置,实现特征点位置判断和杂草噪声过滤,并对相邻特征点进行优化,剔除部分干扰特征。最后,采用Hough变化对特征点进行直线拟合,将不同Hough变换累加阈值获得的拟合直线映射到累加平面上,通过-means聚类将累加平面数据聚类为与作物行数相同的类数,根据相机成像的透视原理提出基于聚类质心距离差和组内方差的最优累加阈值获取方法,将最优累加阈值下累加平面中的聚类质心作为识别出的真实作物行线。温室和田间试验表明,针对不同生长时期的生菜和绿甘蓝作物,该文算法均可有效识别出作物行线,最优阈值算法耗时小于1.5 s,作物行提取平均耗时为0.2 s,在田间和温室中作物行的平均识别准确率分别为94.6%、97.1%,识别准确率为100%的占比分别为86.7%和93.3%。研究结果为解决多环境变量影响因素下的算法鲁棒性和适用性问题提供依据。

机器视觉;导航;算法;精准农业;作物行识别;Hough变换;-means聚类

0 引 言

在精准农业技术的驱动下,农业机械田间自动导航技术被广泛用于耕地、播种、除草、施肥、喷药、收获等农业生产过程中,该技术可提高作业效率,降低漏作业区域面积、劳动强度及操作的复杂程度[1-4]。目前常用的导航技术为GPS和机器视觉技术[5],由于机器视觉可实时获取作物行的相对位置信息,并实时感知当前的作物生长状况和田间环境,加上其具有成本低的特点,被广泛应用于在线作物[6-7]、杂草[8-9]、作物行[10-12]的检测和识别。作物行识别和定位是农机田间自动沿作物行导航的核心技术之一,国内外学者在该方面做了大量研究。孟庆宽等[13]提取YCrCg颜色模型中与光照无关Cg分量,并采用模糊C均值聚类法进行图像分割,试验证明图片处理耗时16.5 ms。陈娇[14]、赵瑞娇[15]等采用垂直投影法获取导航定位点位置,并采用改进Hough变换对多垄线进行识别,算法耗时分别为219.4和83.4 ms。安秋等[16]采用基于光照无关分量和最大类间方差法对图像进行分割,通过优化Hough变换提高导航信息获取的鲁棒性。Guerrero等[17]提出了带精度调节的作物行检测和数据获取系统,通过控制曝光时间获取最优分割图像,并通过透视投影几何学对拖拉机姿态和杂草密度进行检测,试验表明该算法满足3~6 km/s作业时速的需求。Jiang等[18-19]则采用移动窗口扫描的方式,获取目标像素的分布,并采用-means聚类法寻找Hough变换拟合直线的灭点,并筛选真正作物行线,小麦作物行检测试验表明准确率可达90%以上。Vidovic等[20-21]提出了一种近似全局最优划分的方法实现对田间作物行的拟合,该方法可提高作物行拟合的准确度并降低算法耗时,通过对281幅田间作物图像进行处理,算法作物行识别平均准确率为73.7%,同时算法具有优异的曲线检测能力。针对复杂环境背景下的作物行的特征点难以获取的问题,研究人员还提出采用双目立体视觉技术对作物深度信息进行获取,通过高度特征点区分作物行去杂草。翟志强等[22-23]提出一种基于Census变换的作物行识别算法,根据作物行生长高度及种植规律,通过高程及宽度阈值提取有效的作物行特征点,采用主成分分析法拟合作物行中心线,试验表明识别率≥92.58%,平均耗时0.293 s。Kise等[24]采用导航点与视角点匹配方式对拖拉机进行导航控制,采用互相关函数矫正作物行高程图的横断面外形,并基于作物行模板提取导航特征点,在3.0 km/h的作业时速下,拖拉机侧偏均方根误差小于0.05 m。

以上文献主要针对作物在某一生长阶段展开作物行提取算法的研究,实际情况中,作物在大部分生长阶段均需要实现自动导航作业,而不同生长阶段会造成作物形状、作物行结构、杂草情况等多环境变量的变化,因此本文针对生菜和绿甘蓝两种常见田间蔬菜,考虑到在不同生长期,不同种植结构及不同田间杂草密度的实际工况下,进行作物行提取算法研究,提出一种基于自动Hough变换累加阈值的多作物行提取算法。首先,通过Lab颜色空间中的分量对绿色像素进行区分,并采用最优自动阈值进行二值化处理,通过先闭后开形态学运算,过滤掉部分杂草噪声。其次,采用双阈值分段垂直投影法提取作物行的特征点,并采用Hough变换获取特征点直线拟合的累加空间,通过判断不同累加阈值下累加平面中的点簇的-means聚类位置,从而提出最优的累加阈值获取方法,并采用聚类质心作为该行作物的真实作物行。最后对两种蔬菜作物分别进行温室和田间试验,来验证算法的有效性。研究结果为解决多环境变量影响因素下的算法鲁棒性和适用性问题提供方法依据。

1 图像预处理

1.1 颜色空间选择

本文采用Visual Studio2017与OpenCV3.3视觉库作为图像处理编程环境,处理器采用联想ThinkCentre E74,CPU为英特尔酷睿i5,CPU频率2.7 Hz,DDR4内存。

田间作物行提取的主要目标是将作物或作物行从背景分离,其背景包括田间土壤、杂草、石块、局部建筑物等异物,由于作物与背景特征在颜色上有明显区分,因此在大部分研究中均将颜色作为区分依据,但考虑实际田间作业环境光照的复杂性,可能产生不均匀光照、阴影与亮班、光照过强等因素,都会让颜色分离变得复杂。本文采用CIE—Lab颜色模型,该模型是独立于设备的色彩空间,并可清晰的分离色彩信息和灰度信息,且该颜色空间被设置为欧氏距离,可更好的对应色彩之间的感觉差别[25],其中分量对绿色信息敏感,对比ExG超绿算法,分别运用分量和ExG算法对移栽绿甘蓝作物进行灰度化处理并将图像矩阵数值映射到0~255区间内。图1a为田间采集的绿甘蓝彩色图像,图1b和1c分别是分量和ExG算法灰度化后的图像,可见2种算法均能明显区分作物和背景。

a. 原始图像 a. Original imageb. a分量灰度图 b. Grayscale of a componentc. 超绿算法ExG灰度图 c. Grayscale of ExG

计算两种方法灰度图的直方图,如图2所示。根据直方图可知ExG算法和分量在直方图上均有两个明显峰值和一个低谷,故为二模态直方图[26],均可通过自动阈值分割实现作物和背景分离,但分量直方图的低谷更为清晰,且低谷空间狭窄,区分界限明确,而ExG算法低谷处较宽,背景与作物的区分程度较分量差。同时通过观察2种方法局部灰度图可见,ExG算法引入过多的土壤噪声,如图2c、d所示,故本文采用Lab颜色模型的分量进行灰度化。

图2 直方图与局部图对比

1.2 图像分割与形态学处理

采用阈值分割将作物行灰度图转换为二值图,完成目标与背景的分离。阈值的选择必须满足最小分割错误的要求[27],本文采用最优自适应阈值进行二值化,最优阈值化方法是将图像的直方图用2个或多个正态分布的概率密度函数来近似的方法,阈值取距离对应于两个或多个正态分布最大值之间的最小概率处最近的灰度值,该方法具有分割错误概率最小的优点[25-27]。需要分别计算背景和物体的灰度均值μμ,并计算背景与物体分割的阈值(i+1),当前后两次计算的阈值相等时则该阈值为最优阈值,否则重新计算灰度均值,迭代往复计算,公式如下

式中(,)为像素值;#background_pixels为背景像素的个数;#object_pixels为目标像素的个数。

之后为去除田间杂草和光照不均匀性对作物提取的影响,本文采用先闭后开运算对二值图像进行去噪和填充处理,闭运算可有效去除小面积噪声,但会造成作物中形成明显的孔洞,开运算可实现孔洞填充,形态学处理效果见图3所示。

图3 二值化与形态学处理图

Fig3 Binaryzation and mathematical morphology

2 作物行特征点获取

由于蔬菜作物多数采用条播或移栽种植,一段距离内可将作物行看作直线,在每行作物中,作物行贯穿于每颗作物的根茎位置,但是由于叶片遮挡无法观测到根茎位置,故仅可通过作物叶片提取特征点。由于蔬菜作物叶面生长的不规则性,需要增加作物行线上的特征点以保证拟合正确性。本文采用改进的分段垂直投影法对作物行特征点进行提取。垂直投影法是将图片亮度值投影到图像列坐标轴上并进行累加,亮度值最高的区域为作物行区域。由于相机透视原理造成作物行成像呈斜线的情况,垂直投影的峰值无法准确代替作物行的位置[28-29],故本文采用图像分段的方法,将图片等距划分为若干水平条,并对每个水平条图片进行垂直投影。设每个水平条图像高度为像素,原始图像大小为×,和分别为图像的行像素数和列像素数。则水平条个数为,=/;(,)为水平条上处于(,)处像素值,取值0或255(白色)。则第列的垂直投影()为亮度值为255的像素个数累加值,如图4a所示。

式中为划分水平条的个数。图4为特征点获取方法图,垂直投影图峰值区域可近似认为是作物区域,将作物区域用一个特征点代替,特征点的选取尽量在作物行线上,本文采用双阈值的方法提取局部特征点,第一阈值为图像面积阈值thrS,目标像素占比plant为目标像素个数占图像总像素数百分比,plant用于判断被识别作物在图形中的面积大小,设置水平线穿过垂直投影,特征点水平线纵坐标。

式中m为第段图像中特征点的纵坐标值。当作物在幼苗期时,作物叶片总面积较小,田中杂草也相对较小,故取垂直投影的平均值可有效避免多模态峰值对特征点的影响,当成熟期作物取较大的可过滤掉作物枝叶和杂草产生的干扰。

注:x为水平条个数;h为水平条高度;f(i, j)为(i, j)处的像素值;start_pointx、end_pointx和mid_pointx分别第x水平条图像垂直投影图的起始点横坐标、终止点横坐标和特征点横坐标。

水平线与每个垂直投影凸起有两点相交,分别定义为起始点start_point和终止点end_point判断公式如下

(7)

式中为纵坐标取值,∈[1,];()为垂直投影在坐标处的亮度值。取特征点为起始点和终止点的中点,采用噪声判断阈值thr2作为垂向投影的最小宽度判断指标,用于过滤杂草和枝叶噪声干扰,当垂直投影宽度小于2值时,将此投影凸起判定为噪声干扰,予以舍弃,特征点计算公式如下

本文中将图像等距划分为30段水平图像条,根据大量试验,取thrS=30%,thr2=20时,可获得更好的特征点提取效果。本文采用4像素特征点作为拟合目标,特征点越小Hough变换拟合的数据点越少,处理速度越快,但是通过试验发现当特征点采用1像素时,会出现以下两个问题:第一,对于接近封垄期的作物来说,由于其叶面较大,各叶面形状和分布无规律,在特征点的提取上容易提取到叶面边缘点或噪声点,在总特征点数量较少的情况下,误差特征点对直线拟合会产生一定影响;其次,由于特征点数量较少,因此Hough变换拟合时对累加阈值较为敏感,累加阈值发生小幅度变化时,会导致作物行识别从欠拟合到误差拟合的状况。因此为保证具有充足的直线拟合点,并尽可能降低算法耗时,选用4像素特征点。当蔬菜叶面较大、形状不均匀、杂草干扰等情况下,一段图像中一棵蔬菜作物会提取多个特征点,当误差特征点较多时,会影响Hough 变换的直线拟合结果,降低拟合精度,因此本文将同行中距离小于45像素的两特征点删除,并选取两点的中点为新特征点,从而对一段图像中一棵作物多特征点的情况进行优化。图5b为优化后的特征点图,试验表明,特征点优化有助于提高作物行识别的准确性。

3 作物行线拟合

3.1 Hough变换作物行检测

直线拟合的常用方法是线性回归和霍夫变换(Hough Transformation),最小二乘法对于单作物行识别更为有效,Hough变换是一种在图像中寻找直线、圆及其简单图形的方法,可对任意数量作物行同时进行检测[30],Hough变换将直线在直角坐标系中的斜率和截距参数转化为极坐标系的参数坐标(,)。将经过不同点的相同(,)参数进行累加获取累加平面,通过参数累加值数量来判断特征点构成直线的可能性,故通过Hough变换对特征点图像进行直线拟合需要控制的参数有3个:极径距离分辨率rho、极角角度分辨率theta、累加阈值acc_thr。为得到准确的拟合直线,将rho设为1 pixel,theta为1 rad,acc_thr用于判断可能的作物行线,累加阈值的取值对作物行的拟合有很大影响。图6分别对应累加阈值为180、140、和100时,Hough变换检测出的直线。

a. acc_thr=180b. acc_thr =140c. acc_thr =100

从图6a中可见4行作物,累加阈值在180时,仅检测出3行作物,漏检测一行,由于每行作物线性程度不同,故每行(,)的累加值不同,当累加阈值取值过大则会漏检累加值较小的作物行线,同时其他部分作物行检测出来的直线不止一条。图6b出现了多检测的问题,即检测出除4行作物行外的直线,由于累加阈值取值较小,一些并非作物行的直线也被提取出来,图6c更为明显。因此需去掉非作物行拟合线,仅保留作物行线,并将每行作物行简化1条。

3.2 基于K-means的累加平面参数点聚类

累加平面中一坐标点对应到图像坐标系中是一条直线,因此对于多行作物检测可在累加平面中将参数点分成与作物行数相同的类,再提取类中的最优点作为作物行线参数。

-means聚类是一种无监督的学习,它将相似的对象归到同一簇,簇内的对象越相似,聚类的效果就越好,其中表示的是聚类为个簇,means代表取每一个聚类中数据值的均值作为该簇的中心[31]。以聚类中心到各点的欧几里得距离作为数据,采用误差平方和(SSE)作为聚类目标函数,则有

式中为聚类数量;表示聚类点;C为第类中的聚类点集;c为聚类中心;dist表欧几里得距离求解函数。当SSE取最小值时,该中心点为此类的中心点,-means聚类根据聚类数量通过多迭代的方式进行优化。将Hough变换不同累加阈值下拟合的直线对应到累加平面参数空间上如图7所示,并根据作物行数将累加空间进行4聚类,并用不同颜色区分,用十字线和圆圈标记出聚类的中心点位置。可见当阈值为180时,参数点明显的有三簇,聚类将其中一簇分为2类,体现在图像坐标系中仅检测出3行作物,其中一行作物检测出两条作物行线;阈值为140时,由于出现距其他参数点较远的干扰点,故将本应分为两类点簇划分为一类;阈值为100时,聚类参数干扰点增多,虽然有4条较明显的连通区,但-means聚类无法准确聚类4行作物的参数点;阈值为160时,可见聚类效果最为理想,有明显4区域的点簇代表4根作物行线。因此通过累加阈值聚类后分离情况可判断累加阈值的取值大小,从而判断欠拟合和过拟合的现象。

3.3 最佳累加阈值获取

最佳累加阈值可使作物累加平面的参数点集与作物行数相同,且每个点集代表一行作物,无漏拟合和错拟合的情况发生。本文提出一种基于聚类质心距离差和组内方差的最佳阈值获取方法,以常见的4行作物检测为例,该方法也可扩展至其他作物行数的检测。将累加平面上聚类质心分别用c1,c2,c3,c4表示,如图7b所示,可见聚类质心点中有2对相距较近,分别代表左右两侧的两行作物,根据相机成像的透视原理,两侧的作物行线均向中间倾斜,故左右两边作物行成像斜率较大。在极径方向,同一侧作物行聚类中心点的纵坐标基本在同一水平线上,设置纵坐标差的边界为[0,t],横坐标差允许边界为[tt],当同一侧两作物极径差过小时,表明设定的累加阈值过大,丢失某一行的特征参数,如图 7a所示,当极径差过大时,表明累加阈值小,出现多检测的现象,如图7d所示。

注:cT1,cT2,cT3,cT4为聚类质心;T为不同阈值下质心点标号。

本方法采用不同累加阈值对质心进行分析,为确保聚类算法正常运行,所取累加阈值下Hough变换获取的拟合直线参数点个数要大于聚类个数,从而可确定起始扫描的最大累加阈值init_thr,从起始阈值开始递减10取下一个阈值,直到取到阈值为100,则累加阈值取值为

式中为不同阈值下质心点标号;为取值序号集合。根据同侧作物参数点横纵坐标的允许边界,获取满足要求的值和质心点集。

式中()为质心点集;ρ为聚类质心的横坐标值;θ为聚类质心的纵坐标值。在满足上述条件的累加阈值中计算质心点集的组内方差,将组内方差最小时的opt值对应的累加阈值acc_thrTopt设为最佳累加阈值opt_thr

式中SSE为阈值下第簇聚类的误差平方和;n为阈值下第簇聚类点数量。通过多组试验数据验证,本文采用的最大累加阈值init_thr为产生25条直线的累加阈值。

3.4 聚类质心参数的直线拟合

最佳累加阈值获取方法,可有效获取每幅图片的Hough变化的最佳累加阈值,满足该阈值下的累加平面可聚类成与作物行数相等的簇数,但是每行作物拟合的直线数不一定唯一,故采用聚类质心参数作为该作物行线的拟合参数,图8为累加平面的极坐标参数对应到图像坐标系的模型图,其中距离和∠分别为累加平面中的和,则可计算出点和点的坐标,直线方程为

选取适当的和长度,并计算,两点的坐标,在作物行图像中显示直线为。

注:为图像坐标系,为行像素坐标,为列像素坐标;、分别为直线的极径和极角。

Note:is image coordinate system,is row pixel coordinate, andis column pixel coordinate;andare polar diameter and angle of line, respectively.

图8 累加平面与图像坐标系转换模型

Fig.8 Transformation model of Hough space accumulator and image coordinate

4 试验结果与分析

为验证算法的有效性和适用性,本文选取不同生长时期的行栽生菜和绿甘蓝为试验对象,分为温室和田间试验两部分。

温室试验图像采集于北京市通州区北京国际都市农业科技园温室内,采集时间为2016年5月3日~6月1日,设备采用SONY ILCE-5000L数码相机,相机安装垂直高度为1.7 m,前视距2 m,采集图像大小768×1 024 pixel,图像格式为JPG。采集的图片包括了各种杂草密度、行中缺苗和不同光照等多种情况,田间杂草主要为马唐和马齿苋,期间获取的最大杂草密度为145棵/m2,图9为移栽生菜作物行提取过程图,选取移栽后7、15和25 d生菜为试验样本,其中作物种植参数为:移栽行距400 mm,株距300 mm。图中可见不同生长时期作物在单棵作物及作物行形状上均有不同,在移栽初期作物叶片面积小,可明显区分株间作物,但由于叶面数量少,故作物形状呈不规则状;移栽15 d通过人为处理,在每一行上去除一定的作物,使作物行中作物呈现非均匀排布,同时可见在有阴影的情况下,图像分割算法仍具有一定的鲁棒性;移栽后25 d后,生菜叶面面积大,成近圆形,作物叶面在行间和株间均有一定连接,接近封垄状态。通过对3个时期的作物行提取可看出本文算法具有较强的适应性。

图9 不同移栽时期4行生菜作物行提取过程

取两种作物在3个不同生长时期的图片作为试验样本,每个生长时期取10幅进行作物行识别,总计60幅。统计不同图片下目标像素占比、算法获取的最佳累加阈值、组内方差、最优阈值算法耗时、作物行线提取耗时、识别准确率等5个参数,其中根据对4行作物行的识别结果与人为观测的吻合程度定义识别准确率,目标识别行数全部被识别出并与观测作物行吻合,则定义该识别准确率为100%,错识别一行准确率下降100%/,为目标行数。目标像素占比为作物像素数量与图片总像素数量的百分比。将算法统计结果汇总,列出每个生长阶段10个样本的结果,见表1所示。结果可见目标像素占比可反映作物在不同生长时期的叶面大小,最佳累加阈值取值在170~240范围内,组内方差在10~50范围内,通过识别率可见,当聚类方差大于40时,识别出的作物行线与实际作物行会有一定偏差,聚类方差越大,作物行识别误差也越大。以每个移栽时间段10个样本结果计算最优阈值算法平均耗时和作物行提取平均耗时,得到像素占比与算法耗时的关系,见图10所示。可见最优阈值算法耗时在1.5 s内,像素占比越大,优化耗时越长,其次作物行提取平均耗时基本为0.2 s,不随目标像素占比变化。本文提出自动获取最优阈值算法在外部环境变化不大的情况下,可先进行一次最优阈值的获取,之后沿用该阈值,直接进行作物行的提取,从而将图像处理算法耗时控制在0.2 s左右。

表1 作物行获取算法识别结果

图10 目标像素占比与算法耗时关系

田间试验主要针对算法识别准确率进行验证,图像采集于北京市通州区北京国际都市农业科技园和黑龙江红星农场内,图11a为田间行栽20 d的2行绿甘蓝,采图地点位于北京市通州区北京国际都市农业科技园内,采图时间为2015年5月18日9:15。图11b为田间多行移栽生菜,采图地点位于黑龙江红星农场,采图时间为2015年9月25日10:20。取田间移栽后10~30 d期间生菜和绿甘蓝图片60幅图片以及之前60幅温室图片对算法准确率进行统计,见表 2。该算法在田间和温室中作物行的平均识别准确率分别为94.6%、97.1%,识别准确率为100%的占比分别为86.7%和93.3%,由于外界光线变化的影响,温室较田间的算法应用效果更为理想。

表2 算法识别准确率统计

a. 两行移栽绿甘蓝b. 多行移栽生菜 a. Transplant cabbage in 2 rowsb. Transplant lettuce in multiple rows

5 结 论

1)本文采用Lab颜色空间中与光照无关的分量对绿色作物进行提取,通过最优自适应阈值进行二值化处理,并采用先闭后开形态学运算对杂草和作物边缘进行滤波。通过图像处理试验表明,该方法可避免光照不均匀及田间杂草对特征提取产生的干扰,从而实现对作物行正确分割。

2)本文采用双阈值垂直投影法对作物行特征点进行提取,根据目标像素占比阈值和噪声判断阈值来获取不同的特征点,并通过特征点的优化,剔除相邻干扰特征点。该算法可适应于不同生长时期作物进行特征点的提取。

3)本文提出基于自动Hough变换累加阈值的作物行线拟合方法,将不同Hough变换累加阈值获得的拟合直线映射到累加平面上,并对累加平面上参数点进行-means聚类,基于聚类质心距离差和组内方差的方法获取最佳累加阈值。最后以最佳累加阈值下累加平面聚类的质心作为作物行的拟合直线。田间和温室作物行提取试验表明,针对不同生长时期的生菜和绿甘蓝作物,算法均可成功识别出作物行线,最优阈值算法耗时在1.5 s以内,随目标像素占比增大而增大,作物行提取平均耗时为0.2 s,不随目标像素占比而变化,该算法在田间和温室中作物行的平均识别准确率分别为94.6%、97.1%,识别准确率为100%的占比分别为86.7%和93.3%。

[1]胡静涛,高雷,白晓平,等. 农业机械自动导航技术研究进展[J]. 农业工程学报,2015,31(10):1-10. Hu Jingtao, Gao Lei, Bai Xiaoping, et al. Review of research on automatic guidance of agricultural vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(10): 1-10. (in Chinese with English abstract)

[2]李建平,林妙玲. 自动导航技术在农业工程中的应用研究进展[J]. 农业工程学报,2006,22(9):232-236. Li Jianping, Lin Miaoling. Research progress of automatic guidance technologies applied in agricultural engineering [J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2006, 22(9): 232-236. (in Chinese with English abstract)

[3]Wiilson J N. Guidance of agricultural vehicles-a historical perspective[J]. Computer and Electronics in Agriculture, 2000, 25(1):3-9.

[4]Choi K H, Han S K, Han S H, et al. Morphology-based guidance line extraction for an autonomous weeding robot in paddy fields[J]. Computers and Electronics in Agriculture, 2015, 113: 266-274.

[5]姬长英,周俊. 农业机械导航技术发展分析[J]. 农业机械学报,2014,45(9):44-54. Ji Changying, Zhou Jun. Current situation of navigation technologies for agricultural machinery [J]. Transactions of the Chinese Society of Agricultural Machinery, 2014, 45(9): 44-54. (in Chinese with English abstract)

[6]Burgos Artizzu X P, Ribeiro A, Guijarro M, et al. Real-time image processing for crop/weed discrimination in maize fields[J]. Computers and Electronics in Agriculture, 2011, 75: 337-346.

[7]Guerrero J M, Pajares G, Montalvo M, et al. Support vector machines for crop/weeds identification in maize fields[J]. Expert Systems with Applications, 2012, 39(12): 11149-11155.

[8]Midtiby H S, Astrand B, Jørgensen O, et al. Upper limit for context-based crop classification in robotic weeding applications[J]. Biosystems Engineering, 2016, 146: 183-192.

[9]Zhang Q, Chen S j, Li B. A visual navigation algorithm for paddy field weeding robot based on image understanding[J]. Computers and Electronics in Agriculture, 2017, 153: 66-78.

[10]Billingsley J, Schoenfisch M. The successful development of a vision guidance system for agriculture[J]. Computers and Electronics in Agriculture, 1997, 16: 147-163.

[11]Bakker T, Asselt K V, Bontsema J. Autonomous navigation using a robot platform in a sugar beet field[J]. Biosystems Engineering, 2011, 109: 357-368.

[12]Astrand B, Baerveldt A. A vision based row-following system for agricultural field machinery[J]. Mechatronics, 2005, 15(2): 251-269.

[13]孟庆宽,何洁,仇瑞承,等. 基于机器视觉的自然环境下作物行识别与导航线提取[J]. 光学学报,2014,34(7):172-178. Meng Qingkuan, He Jie, Chou Ruicheng. et al. Crop recognition and navigation line detection in natural environment based on machine vision[J]. Acta Optica Sinica, 2014, 34(7): 172-178. (in Chinese with English abstract)

[14]陈娇,姜国权,杜尚丰,等. 基于垄线平行特征的视觉导航多垄线识别[J]. 农业工程学报,2009,25(12):107-113. Chen Jiao, Jiang Guoquan, Du Shangfeng. et al. Crop rows detection based on parallel characteristic of crop rows using visual navigation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(12): 107-113. (in Chinese with English abstract)

[15]赵瑞娇,李民赞,张漫,等. 基于改进Hough变换的农田作物行快速检测算法[J]. 农业机械学报,2009,40(7):163-165. Zhao Ruijiao, Li Minzan, Zhang Man, et al. Rapid crop-row detection based on improved Hough transformation[J]. Transactions of the Chinese Society of Agricultural Machinery, 2009, 40(7): 163-165. (in Chinese with English abstract)

[16]安秋,李志臣,姬长英,等. 基于光照无关图的农业机器人视觉导航算法[J]. 农业工程学报,2009,25(11):208-212. An Qiu, Li Zhichen, Ji Changying, et al. Agricultural robot vision navigation algorithm based on illumination invariant image[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(11): 208-212. (in Chinese with English abstract)

[17]Guerrero J M, Ruz J J, Pajares G. Crop rows and weeds detection in maize fields applying a computer vision system based on geometry[J]. Computers and Electronics in Agriculture, 2017, 142: 461-472.

[18]Jiang G, Wang X, Wang Z, et al. Wheat rows detection at the early growth stage based on Hough transform and vanishing point[J]. Computers and Electronics in Agriculture, 2016, 123: 211-223.

[19]Jiang G, Wang Z, Liu H, et al. Automatic detection of crop rows based on multi-ROIs[J]. Expert Systems with Applications, 2015, 42(5): 2429-2441.

[20]Vidović I, Cupec R, Hocenski Ž. Crop row detection by global energy minimization[J]. Pattern Recognition, 2016, 55: 68-86.

[21]Vidović I, Scitovski R. Center-based clustering for line detection and application to crop rows detection[J]. Computers and Electronics in Agriculture, 2014, 109: 212-220.

[22]翟志强,朱忠祥,杜岳峰,等. 基于Census变换的双目视觉作物行识别方法[J]. 农业工程学报,2016,32(11):205-213. Zhai Zhiqaing, Zhu Zhongxiang, Du Yuefeng, et al. Method for detecting crop rows based on binocular vision with Census transformation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(11): 205-213. (in Chinese with English abstract)

[23]Zhai Z, Zhu Z, Du Y, et al. Multi-crop-row detection algorithm based on binocular vision[J]. Biosystems Engineering, 2016, 150: 89-103.

[24]Kise M, Zhang Q, Már F R. A stereovision-based crop row detection method for tractor-automated guidance[J]. Biosystems Engineering, 2005, 90(4): 357-367.

[25]桑卡,赫拉瓦卡,博伊尔. 图像处理、分析与机器视觉[M]. 兴军亮,艾海舟,译. 北京:清华大学出版社,2016.

[26]冈萨雷斯,伍兹. 数字图像处理[M]. 第三版:阮秋琦,译. 北京:电子工业出版社,2017.

[27]冈萨雷斯,伍兹,艾丁斯. 数字图像处理的MATLAB实现(第2版)[M]. 阮秋琦,译. 北京:清华大学出版社,2013.

[28]Inán D, Garcίa-Santillán, Martίn M. Automatic detection of curved and straight crop rows from images in maize fields[J]. Biosystems Engineering, 2017, 156: 61-79.

[29]Montalvo M, Pajares G, Guerrero J M, et al. Automatic detection of crop rows in maize fields with high weeds pressure[J]. Expert Systems with Applications, 2012, 39(15): 11889-11897.

[30]Ji R, Qi L. Crop-row detection algorithm based on Random Hough Transformation[J]. Mathematical and Computer Modelling, 2011, 54: 1016-1020.

[31]布拉德斯基,克勒. 学习OpenCV[M]. 于仕琪,刘瑞祯,译. 北京:清华大学出版社,2009.

Vegetable crop row extraction method based on accumulation threshold of Hough Transformation

Chen Ziwen1, Li Wei2, Zhang Wenqiang2, Li Yunwu1, Li Mingsheng1, Li Hui1

(1.,,400715,; 2.,,100083,)

Agricultural machinery field automatic navigation technology is widely used in farming, sowing, weeding, fertilizing, spraying, harvesting and other agricultural production process. This technology can improve the efficiency of the mechanical efficiency and reduce the missing areas of operation, labor intensity and the complexity of the operation. Because machine vision can be used to obtain and perceive the relative position information of crop rows, current crop growth status and field environment in real time, it is widely applied in online crop detection and identification. In this paper, a method based on automatic accumulation threshold of Hough Transformation was presented in order to improve the adaptability of the crop row recognition algorithm for different kinds and growth periods of vegetables with machine vision. The method was composed of image preprocessing, feature point detection, optimal accumulation threshold acquisition and crop row extraction. Firstly, to reduce the adverse effects of light change and restrain the background noise,* component of Lab color model was selected for transforming RGB image to grayscale image. Optimal adaptive threshold and morphology close-open operation was applied for minimizing error segmentation probability and eliminating irrelevant detail. Secondly, the feature points of crop rows were extracted by sectionalized vertical projection method. The original image was divided into several horizontal segments and target pixel ratio and vertical projection width were used as double threshold in the luminance projection view of each segment to determine the location of feature points and distinguish noise. Thirdly, the Hough transformation method with different accumulative thresholds was performed to fit straight lines for all feature points in the image coordinate system, then they were all converted to Hough space accumulator as points. These points were clustered into the same number as crop rows by-means clustering method. According to the camera projection, the optimal accumulator threshold was acquired by the position relation of clustering centroid and minimum inter-class variance. Finally, the fitting line parameters of real crop rows were the clustering centroid parameters of the accumulation space under the optimal accumulation threshold, then the parameters were converted into the crop lines in the image coordinate system. The crop row identification tests of lettuce and cabbage were carried out in the greenhouse and filed according to the conditions of crops in different growing periods, different weed densities, and different light conditions in the field. The greenhouse experiment showed that the algorithm can effectively identify crop rows with an average recognition accuracy of 97.1% for two crops of different growth periods under different weed densities. The outdoor experiment showed that the algorithm can also identify crop rows with 94.6% recognition accuracy under different row numbers and light conditions. Time consumption for optimal accumulator threshold algorithm and crop rows extraction algorithm were no more than 1.5 and 0.2 s, and the average accuracy rate of crop row detection was achieved 95.8%. In view of the practical application of field operations, as the environmental parameters basically do not change significantly in a short time, the optimal accumulation threshold was only needed to be obtained once, which can ensure the time consumption of algorithm was about 0.2 s.

machine vision; navigation; algorithms; precision agriculture; crop row recognition; Hough transform;-means clustering

陈子文,李 伟,张文强,李云伍,李明生,李 慧. 基于自动Hough变换累加阈值的蔬菜作物行提取方法研究[J]. 农业工程学报,2019,35(22):314-322. doi:10.11975/j.issn.1002-6819.2019.22.037 http://www.tcsae.org

Chen Ziwen, Li Wei, Zhang Wenqiang, Li Yunwu, Li Mingsheng, Li Hui. Vegetable crop row extraction method based on accumulation threshold of Hough Transformation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(22): 314-322. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2019.22.037 http://www.tcsae.org

2018-11-21

2019-08-29

国家重点研发计划(2016YFD0701001);中央高效基本科研业务费(XDJK2017B049)

陈子文,讲师,博士,主要从事农业机器人和机器视觉技术研究。Email:chenziwen_0309@163.com

10.11975/j.issn.1002-6819.2019.22.037

TP242.3

A

1002-6819(2019)-22-0314-09

猜你喜欢

田间阈值聚类
强降雨过后 田间自救指南来了
土石坝坝体失稳破坏降水阈值的确定方法
田间地头“惠”果农
“码”上办理“田间一件事”
采用红细胞沉降率和C-反应蛋白作为假体周围感染的阈值
田间地头有了“新绿”
基于高斯混合聚类的阵列干涉SAR三维成像
基于Spark平台的K-means聚类算法改进及并行化实现
基于加权模糊聚类的不平衡数据分类方法
辽宁强对流天气物理量阈值探索统计分析