1、农业信息与电气技术基于多纹理特征融合的麦田收割边界检测潘胜权,陈凯,解印山,莫锦秋(上海交通大学机械与动力工程学院,上海200240)摘要:自主导航是智能化农机完成收割作业的重要保障。该研究针对多云天气下光照易变化导致单一特征难以应对麦田环境的问题,提出基于多纹理特征融合的麦田收割边界检测方法。通过构建由图像熵特征和方向梯度特征组成的二维特征向量对麦田收割区域与未收割区域进行分类。其中,根据图像熵特征提取的特点,提出基于滑动窗口的直方图统计方法加速图像熵特征提取速度,较传统熵特征提取方法,该研究方法耗时减少 49.52%。在提取二维特征基础上,根据特征直方图分布特点,结合最大熵阈值分割算法对麦
2、田图像进行初步分类,然后通过去除小连通区域对误分类区域进行剔除,进而运用 Canny 算子提取边缘轮廓点,得到分布于收割边界附近的待拟合点。最后,通过 Ransac 算法对拟合直线进行区域限制,得到较为准确的收割边界。试验结果表明,相比传统基于 Adaboost 集成学习算法提取收割边界,该研究算法处理 240 像素1280 像素的图像平均耗时为 0.88s,提速约 73.89%;在不同光照条件下,收割边界平均检测率为 89.45%,提高 47.28 个百分点,其中弱光照下检测率为 90.41%,提高 46.19 个百分点,局部强光照下检测率为 88.26%,提高 46.00 个百分点,强光照
3、下检测率为 89.68%,提高 49.64 个百分点。研究结果可为田间农机导航线识别提供参考。关键词:机器视觉;图像处理;图像熵;多纹理特征;方向梯度;收割边界;小麦doi:10.11975/j.issn.1002-6819.202301067中图分类号:S224文献标志码:A文章编号:1002-6819(2023)-12-0123-09潘胜权,陈凯,解印山,等.基于多纹理特征融合的麦田收割边界检测J.农业工程学报,2023,39(12):123-131.doi:10.11975/j.issn.1002-6819.202301067http:/www.tcsae.orgPANShengquan
4、,CHENKai,XIEYinshan,etal.Detectionofthewheat-harvestingboundaryinwheatfieldbasedonmulti-texturefusionJ.TransactionsoftheChineseSocietyofAgriculturalEngineering(TransactionsoftheCSAE),2023,39(12):123-131.(inChinesewithEnglishabstract)doi:10.11975/j.issn.1002-6819.202301067http:/www.tcsae.org0引 言自主导航作
5、为智能农机系统中田间信息感知模块的关键技术,被广泛应用于播种、施肥、除草和收割等农业作业不同阶段1-2。在收割作业阶段,为提高收割效率,避免重复收割和漏割,作业人员需具备丰富的收割经验,且在长时间反复观察割台与收割边界位置的作业过程中,作业人员容易产生疲劳,存在一定的安全隐患。因此,为了降低劳动成本、减少作业时间、提高生产率,开展智能农机联合收割机自主导航技术研究具有重大现实意义。作业导航线识别是实现智能农机自主导航作业极为重要的一环,实时准确地识别作业导航线能有效加快作业进度,在收割阶段还能降低作物损失率3。作业导航线识别已有研究主要可以分为两类,即基于机器视觉的导航线识别4-9和基于测距传
6、感器10-15的导航线识别。由于激光雷达价格昂贵,而视觉传感器价格低廉,且获取目标信息较为丰富,故国内外关于基于机器视觉的导航线识别的研究不断增多。在导航线识别方面,用于早耕期与中耕期的作物行线识别技术研究已比较成熟。大多数研究以作物与背景差异明显的颜色作为识别特征,以超绿算法为核心,对图像进行预处理,后续通过 Hough 变换、OTSU 算法或垂直投影法完成单一或多条作物行线识别,进而用于指导早耕、中耕期的智能农机作业导航16-21。早耕、中耕期导航线检测方法均基于待检测目标与背景存在颜色上的明显差异,而小麦收割场景下,未收割区域、已收割区域以及土地在颜色上并无明显差异,基于颜色特征的算法难
7、以应用。针对颜色特征不明显的作物收割场景,魏新华等22通过双目相机获得水稻收割场景下的点云信息,根据安装参数获得点云高度,结合密度峰聚类和均值聚类方法对高度信息聚类实现了水稻收割场景下的收割边界识别;杨雨23针对小麦收割场景,利用种子点区域生长算法对收割区域与未收割区域进行区分,进而利用改进 Ransac 算法对二值图像点进行拟合得到了收割导航线;张成涛等24通过改进平滑纹理特征实现了对小麦收割导航线的识别;曾宏伟等25对小麦图像灰度直方图进行双峰拟合获取分割阈值,进而结合区域生长算法实现了低对比度下小麦收割导航线的提取。上述方法大多使用单一特征进行收割场景导航线识别,而在多云天气下作业时,光
8、线强度易发生变化,同一图像不同区域的光照存在差异,单一特征往往难以适应变化的光照条件。本文通过分析待检测麦田特征,构建由反映数量性纹理的图像熵特征和反映方向性纹理的方向梯度组成的二维特征向量,通过滑动窗口算法改进熵特征提取方式加快特征提取过程,利用最大熵阈值分收稿日期:2023-01-14修订日期:2023-05-22基金项目:国家重点研发计划项目(2019YFB1312301)作者简介:潘胜权,研究方向为机电系统集成、机器视觉。Email:通信作者:莫锦秋,博士,副教授,博士生导师,研究方向为机电系统集成控制。Email:第39卷第12期农 业 工 程 学 报 Vol.39No.122023
9、年6月TransactionsoftheChineseSocietyofAgriculturalEngineeringJune2023123割、形态学处理得到收割麦田边界点,融合二维特征下得到的边界点集合并结合 Ransac 算法使得拟合收割直线时边界附近待拟合点得到增广,进而得到较准确的收割机导航线。1麦田收割边界检测图 1a 为 2021 年 6 月 18 日上午 09:0010:00,在北京小汤山精准农业基地拍摄的麦田图像,通过对大量小麦场地照片分析发现,常用于行线识别的颜色特征无法应用于小麦收割边界的识别,但已收割区域麦茬矮小以及无顶部麦穗的特点使得其与未收割区域在迎光和背光时均存在均
10、匀性、疏密等方面的差异。因此,本文选择能反映图像一定区域内均匀性特点的熵作为判别特征。此外,由于已收割区域麦茬裸露,在图像上显示较为规整,其梯度方向较未收割区域更为一致。因此本文在熵特征的基础上融合方向梯度特征进行收割边界识别。1.1图像预处理基于视觉的导航线识别易受光照强度影响,而非结构化农场环境不同于结构化工业环境,光照强度难以控制。赵博等26提出针对不同光照环境,使用直方图均衡化减弱由于光照强度不一致带来的影响,图 1b 与图 1c分别为原始麦田图像灰度化以及均衡化处理后的图像。a.原图像a.Original imageb.灰度图b.Gray scale imagec.均衡化图c.Equ
11、alized image图 1麦田图像及预处理结果Fig.1Wheatfieldimageandpreprocessedresults1.2麦田图像熵特征提取图像熵 E 衡量一定区域内的信息含量,反映该区域内像素点的数量特征,其计算式为E=NGray1i=0pilog2pi(1)式中 NGray为灰度级数;pi为第 i 个灰度级出现的概率。图像熵是针对一定区域内的纹理特点而提出的,故应选用一定大小的滑动窗口对图像滑动计算不同区域的熵值大小,且通过滑动窗口计算特征值的同时,还能对图像进行降采样,减少后续特征的处理量。滑动窗口过大会增加熵特征提取的计算量,过小则使得不同区域求得的熵值差异较小,容易
12、造成误判。而滑动步长过大会使得窗口扫描较为粗略,导致最终求得导航线精度较低,滑动步长过小则会额外产生大量待计算熵值的窗口,增加图像熵特征提取的计算量。本文最终选择大小为 40 像素30 像素的窗口,滑动步长横向为 10 像素,纵向为 5 像素。1.2.1图像感兴趣区域选择由于相机成像存在透视现象,同一对象与相机距离发生变化时往往在图像中的纹理特征会有较大的差异,而这种差异会导致对区域收割与否的误判,因此需要选择图像中熵特征具有明显差异的感兴趣区域27。本文在固定相机安装方式时以拍摄图像纵向高度衡量小麦与相机间距离。为保证感兴趣区域内收割与否熵特征差异明显,感兴趣区域的纵向高度不宜过大,而纵向宽
13、度过小又容易导致真实边界信息丢失。为保留真实边界信息的同时比较不同高度区域熵特征差异明显程度,本文将图 1a 纵向分割为 3 等份,至上而下得到顶部、中部、底部 3 个区域的熵值,如图 2 所示。jwindow014012010080604020051015202530354045E(iwindow,jwindow)2.052.001.951.851.751.651.901.801.701.60iwindowa.底部区域a.Bottom areajwindow014012010080604020051015202530354045E(iwindow,jwindow)2.01.91.81.61.
14、71.51.4iwindowb.中部区域b.Middle areajwindow014012010080604020051015202530354045E(iwindow,jwindow)2.01.71.51.91.81.6iwindowc.顶部区域c.Top area注:iwindow和 jwindow分别为横向、纵向窗口序号;E(iwindow,jwindow)为(iwindow,jwindow)窗口熵值。Note:iwindowandjwindowarewindowNo.inhorizontalandverticaldirection,respectively;E(iwindow,jwi
15、ndow)istheentropyvalueofwindow(iwindow,jwindow).图 2不同区域熵值图Fig.2Entropymapatdifferentareas观察不同区域熵图可以发现,底部区域距离相机过近导致已收割区域纹理过于清晰,而顶部区域距离相机过远使得未收割区域纹理过于模糊,均无法区分收割区域与未收割区域。故本文在固定安装方式下选择图像的纵向中部区域作为收割边界识别的感兴趣区域。1.2.2基于滑动窗口算法的熵特征提取计算图像熵特征的传统方法是对原图像按照熵特征提取所需窗口大小及位置进行截取,统计所截取图像内124农业工程学报(http:/www.tcsae.org)2
16、023年直方图,进而计算熵值,每个窗口相互独立。该计算方法使得不同窗口间重叠区域被重复计算,检测实时性无法得到满足,因此本文对直方图统计方式改进。当生成横向 2 个相邻窗口、纵向 2 个相邻窗口时,如图 3 所示。按照传统熵特征提取方式,子窗口 A2B1B4A3,A4A3D2D1,D2C1D3C4,B4B3C2C1中数据将计算 2 次,A3B4C1D2中数据将计算 4 次,增加计算量。A1B2A2B1D3D2C1A3B4C4A4D1D4B3C2C3注:AkBkCkDk为第 k 个熵特征计算窗口,k=1,2,3,4。Note:AkBkCkDkisthek-thentropyfeaturecalc
17、ulationwindow,k=1,2,3,4.图 3相邻滑窗示意图Fig.3Adjacentslidingwindows本文对原图像进行分割得到熵特征窗口的子窗口。使用滑动窗口算法组合子窗口的灰度直方图数据,进而得到整幅图像的熵特征。以横向为例,第 iwindow个熵特征窗口的左上角以及右下角的横坐标分别如式(2)式(3)所示。xLU(iwindow)=(iwindow1)xstep(2)xRD(iwindow)=min(iwindow1)xstep+xwindow,xpic)(3)xLU(iwindow)xRD(iwindow)xstepxwindowxpic式中,分别为第 iwindow
18、个矩形窗口左上角和右下角的横坐标,像素;为窗口横向滑动步长,像素;为窗口横向宽度,像素;为图像横向宽度,像素。此时每行横向矩形窗口数量 Nwinx如式(4)所示。Nwinx=xpicxwindowxstep+1(4)xLU(iwindow)xRD(iwindow)xpicxwindowxstep与即为子窗口获取的横向分割点,若不是的整数倍,将产生大量子窗口,增加计算量,分割结果如图 4 所示。L(1)L(2)L(3)L(4)R(1)R(2)R(3)R(4)L(iwindow)R(iwindow)注:实线 L(iwindow)和虚线 R(iwindow)分别为第 iwindow个熵特征计算窗口的
19、左边界和右边界,iwindow=1,2,3,Nwinx。Note:ThesolidlineL(iwindow)andthedashedlineR(iwindow)aretheleftandrightboundariesoftheiwindow-thentropycalculationwindow,respectively,iwindow=1,2,3,Nwinx.图 4子窗口横向分割图Fig.4Horizontalsplitdiagramofsub-windowxpicxwindowxstepNsubx为减少子窗口数量,本文令为的整数倍,此时横向被划分的子窗口数为Nsubx=Nwinx1+xwi
20、ndowxstep(5)此时,特征提取窗口右边界同时也是后续窗口的左边界,减少了子窗口数量。如图 5 所示,R(1)既为第 1个特征窗口的右边界,也为第 4 个特征窗口的左边界。熵特征提取仅需滑动子窗口,如将第 1 个特征窗口向右滑动 1 个子窗口即求得第 2 个特征窗口直方图统计结果。iwindow=1iwindow=2L(1)L(2)L(3)L(4)R(1)R(2)R(3)R(4)图 5横向子窗口组合示意图Fig.5Schematicdiagramofhorizontalsub-windowcombinationxpicypicxwindowywindowxstepystep对于一幅大小的
21、图像,熵特征提取窗口大小为,窗口横向和纵向滑动步长分别为、时,传统熵特征提取算法计算量 C1约为C1xpicypicxstepystep(xwindowywindow)(6)本文改进熵特征提取算法计算量 C2约为C2 2(xwindowypic+ywindowxpic)+xpicypic(7)以本文采集原始图像尺寸 720 像素1280 像素为例,经选择感兴趣区域后,实际处理为 240 像素1280 像素。在 16GB 内存、Inteli7-12700HCPU、RTX3060GPU 的计算机上提取该图像熵特征,传统熵特征提取算法与改进后的熵特征提取算法耗时分别为 1.05与 0.53s,本文算
22、法提速约 49.52%。1.3图像方向梯度特征提取熵特征体现了窗口区域内的像素点数量关系,反映了纹理的复杂程度,但无法反映纹理的方向特征。而小麦收割后留下的矮茬使得收割区域的纹理方向较为一致,故本文在提取熵特征的基础上增加了方向梯度特征。本文选择大小为 33 的 Sobel 算子分别提取 x、y 方向上的梯度强度,x 方向和 y 方向的 Sobel 算子为Sobelx=10+120+210+1(8)Sobely=+1+2+1000121(9)式中 Sobelx为 x 方 向 的 Sobel 算 子;Sobely为 y 方 向 的Sobel 算子。滑动窗口的方向梯度 G 为G=xwindowi=
23、1ywindowj=1GijIArea(Dirij)xwindowywindowIArea(Dirij)=1,Dirij Area0,Dirij Area(10)式中 Gij为窗口内位于(i,j)像素点的梯度强度,无量纲;第12期潘胜权等:基于多纹理特征融合的麦田收割边界检测12540,80)Dirij为窗口内位于(i,j)像素点的梯度方向;Area 为梯度方向区间;梯度区间过大将导致未受割区域滑动窗口内方向梯度偏大,而过小将使得收割区域滑动窗口内方向梯度偏小,均不利于通过方向梯度特征判断区域收割与否。根据大量采集图像的分析结果,本文令区间大小为40,梯度方向区间 Area 为。1.4图像后处
24、理1.4.1最大熵阈值分割在得到图像的熵特征和方向梯度特征后需要选择合适的阈值将收割区域与未收割区域区分开来,常用的阈值分割方法有基于灰度图的双峰阈值分割法、最大类间方差法和熵阈值分割法等28。由于本文提取的特征均为浮点类型,选取不同的灰度级数时,特征直方图存在较大差异,故双峰阈值分割法与最大类间方差法不适合本文。而熵阈值分割反映了分割后图像的均匀程度,将图像分为不同类别时,整幅图像的熵值最大时,分割效果最好,灰度级数对最终阈值的选取影响较小。故本文选择最大熵阈值分割作为阈值选取方法,二分类问题分割后图像熵值 Eseg为Eseg=nseg1i=0p1ilog2p1iNGray1i=nsegp2
25、ilog2p2i(11)p1i=pinseg1k=0pk(12)p2i=piNGray1k=nsegpk(13)p1ip2i式中 Eseg为分割后的图像熵值;为分割后灰度级 i 在前景图中出现频率;为分割后灰度级 i 在背景图中出现频率;nseg为分割阈值对应灰度级数。图像的熵特征直方图如图 6a 所示,由于拍摄光线、角度等,提取的熵特征中存在少许低值噪声点,这些噪声点会使得最终的熵特征分割阈值偏小,而收割边界处信息量往往较高,其熵值较大,故可舍弃低熵值点。熵特征分割阈值与舍弃低熵值点比例关系曲线如图 7所示。舍弃比例低于 5%时,曲线较陡,此时低值噪声点对熵特征阈值影响较大;舍弃比例高于 5
26、%时,曲线较缓,低值噪声点几乎不影响最终阈值,为确保能够消除低值点的影响且考虑到收割边界熵值较大的特点,本文舍弃 10%低熵值点求取熵分割阈值。梯度特征直方图如图 6b 所示,由于梯度特征反映滑动窗口内像素点在某一方向的平均梯度强度,受噪声点影响较小,故无需处理噪声点。图 8a 和图 8b 分别为舍弃低熵值点前后熵特征的阈值化结果;图 8c 为方向梯度特征阈值化结果。1.4.2小连通区域去除从图 8b 和图 8c 可以看出,两种特征均会产生较多的误判区域。其中对于熵特征,未收割区域右侧由于远离中心其熵特征值较小,中间区域也存在着部分因小麦高度的差异而导致光照下熵值过小的区域;对于方向梯度特征,
27、已收割区域由于麦茬裸露,其纹理方向较为一致,窗口内位于梯度方向区间内像素点较多,方向梯度特征值普遍较高,未收割区域由于各个方向的梯度分布较杂乱,窗口内位于梯度方向区间内像素点少,方向梯度特征值普遍较低,且在各区域内也存在不同程度的误判窗口。但两种特征的二值化结果均使得收割边界的左侧或者右侧中的一侧分类准确度较高,因此可以通过去除小连通区域将另一区域内的误判点去除。1.31.51.71.92.1 E0102030405060708090100 NumEa.熵特征a.EntropyG/pixel2 NumG2 4 6 8 10121416182001020304050607080b.方向梯度特征b
28、.Direction gradient注:NumE表示熵特征为 E 的窗口个数,NumG表示方向梯度特征为 G 的窗口个数。Note:NumErepresentsthenumberofwindowswithentropycharacteristicE,NumGrepresents the number of windows with directional gradient characteristic G.图 6灰度级数为 256 时的特征直方图Fig.6Characteristichistogramwhengrayscaleprogressionis25600.040.080.120.16
29、0.201.701.751.801.851.901.95 Ploss TEseg注:Ploss表示低熵值点舍弃比例;TEseg表示熵特征分割阈值。Note:Plossrepresentsthediscardedratiooflowentropypoints.TEsegrepresentstheentropysegmentationthreshold.图 7熵特征分割阈值与低熵值舍弃比例关系曲线Fig.7Relationshipbetweenthresholdandlossratioofentropya.舍弃低值点前熵特征二值化图a.Entropy binary image of non-dis
30、carding small valueb.舍弃低值点后熵特征二值化图b.Entropy binary image of discarding small valuec.方向梯度特征二值化图c.Gradient binary image图 8阈值分割后的特征图像Fig.8Featureimagesafterthresholdsegmentation本文采取四邻域连通区域判定方式,由于相机安装位置与收割机位置相对固定,故收割区域与未收割区域在图像中所占比例较为固定,因此去除区域的大小可以固定。通过观察大量二值化图像,未收割区域中远离相126农业工程学报(http:/www.tcsae.org)20
31、23年机中心的区域由于透视效应,其熵值较小。为去除误分类点的同时保留尽可能多的正确分类点,针对熵特征二值化图,本文先去除黑色小连通区域,再去除白色小连通区域,区域阈值为二值化图像大小的 1/6;针对方向梯度二值化图,本文采取先去除白色小连通区域,再去除黑色小连通区域,区域阈值分别为二值化图像大小的1/12 和 1/6。图 9a 和图 9b 分别展示了感兴趣区域内熵特征图像和方向梯度特征图像经过去小连通区域处理后的二值化图。a.熵特征二值化图a.Entropy binary imageb.梯度特征二值化图b.Direction gradient binary image图 9去除小连通区域后的特
32、征二值化图Fig.9Binaryimageafterremovingsmallconnectedregions1.4.3Ransac 边界拟合经过图像二值化、小连通区域去除后,通过 Canny算子即可提取得到边界轮廓点,融合 2 种特征得到的边界点,采取 Ransac 方法拟合得到收割边界。由于收割农机行进方向与收割边界朝向一致,因此收割导航线在图像中的角度变化范围相对固定,为提高检测准确率,在进行 Ransac 拟合时应判断拟合边界是否在此角度范围内,本文选择角度范围为 60,120。当待评价点落于拟合直线一定范围内,则将该待评价点视为“优点”,该拟合直线得分 Score 加 1,本文选择距
33、离拟合直线 2 个像素点作为“优点”评价指标。拟合过程如下:1)将两种特征得到的疑似边界点集 Points1和 Points2作为数据输入,记为 Points;60,1202)从 Points中随机选择两个初始点作直线 L,若 L 倾斜角,则进入步骤 3),否则重复步骤 2);3)遍历得到 Points中每个点到 L 的距离 Di,若 Di2像素,则该直线得分 Score加 1;4)重复步骤 2)至步骤 4),选择 Score 最大值对应的 L 作为收割边界。2验证试验2.1试验平台本文选用显微精工 XG300 高速工业相机,并搭配中联科创 VM0612 镜头作为图像采集设备,采集图像分辨率为
34、 720 像素1280 像素,采集帧率为 30 帧/s。图像处理在计算机平台上完成,处理器为 Inteli7-12700HCPU、RTX3060GPU,内存大小为 16GB。2021 年 6 月中旬在北京小汤山精准农业基地采集原始小麦收割图像数据,天气为晴天与多云。小麦株高约为 80cm,麦茬高度约为 8cm,收割行进方式为右旋法,行进速度约 1.5m/s,收割边界位于收割机左侧。为使拍摄视域较广并保证收割机安全作业,相机安装于驾驶舱底部居中偏左位置,相机离地高度约 2.2m,相机光轴与地面呈约 30角。2.2评价指标对所拍摄麦田图像进行人工标注作为收割边界的真实值,将算法提取的收割边界与人工
35、标注的收割边界之间的夹角绝对值以及横向截距的偏移率作为本文算法精度评价指标,并以检测率作为算法有效性的评价指标。本文定义检测率 Rdetected为Rdetected=NdetectedNset100%(14)式中 Nset为试验数据集总数,Ndetected为成功检测到收割边界的图像总数。因收割边界均为直线,故认为检测边界与真实边界满足如下关系时视为成功检测收割边界:deviationthresholdEdeviationEthreshold(15)deviation=|detectedreal|(16)Edeviation=|BdetectedBreal|xpic(17)式中 deviat
36、ion为检测收割边界与真实收割边界的角度偏差,();detection为检测收割边界倾斜角,();real为真实收割边界倾斜角,();threshold为角度偏差阈值,();Edeviation为横向截距偏移率,%;Bdetected为检测收割边界横向截距,像素;Breal为真实收割边界横向截距,像素;Ethreshold为横向截距偏移率阈值,%。2.3试验结果与分析基于视觉的检测方案易受光照影响,小麦麦穗在不同光照下更容易产生纹理特征变化的现象。为验证本文方法的适用性,采集了不同光照环境下的小麦收割图像,如图 10 所示,其中图 10a 和 10b 拍摄于 2021 年 6 月18 日上午
37、09:00,多云天气,图 10c 拍摄于 2021 年 6 月17 日中午 11:00,天气晴,强光照。共拍摄弱光照图像2200 张,局部强光照图像 758 张,强光照图像 1134 张。a.弱光照a.Weak lightb.局部强光照b.Local strong lightc.强光照c.Strong light图 10不同光照麦田图像Fig.10Wheatfieldimagesunderdifferentlightingconditions第12期潘胜权等:基于多纹理特征融合的麦田收割边界检测127传统的收割边界检测算法利用多特征较经典的是将图像用超像素分割算法分割成大量的超像素块,对超像素
38、块进行多维特征提取,进而利用机器学习算法构建对超像素块进行分类的分类器,最后通过分类器区域收割区域与未收割区域。洪通过构建 6 维颜色特征向量和 10维纹理特征向量,以决策树模型为弱分类器,通过Adaboost 集成学习算法对弱分类器进行组合构建强分类器进行稻田收割机导航线提取,其中决策树最大可能深度为 1629。分别利用基于 Adaboost 集成学习算法的边界检测方法和本文收割边界检测算法进行检测,取 threshold=5、Ethreshold=5%,检测结果如表 1 所示。本文算法选择两种纹理特征增扩了边界附近数据点,既减少了提取无用特征的时耗,又避免了其对区域收割与否造成误判,提高了
39、角度的判别精度,进而使得检测率有较大提升。由表 1 可知,相较于对比算法,本文方法的收割导航线检测率有明显提升,弱光照下本文算法为 90.41%,提高46.19 个百分点;局部强光照下为88.26%,提高 46.00 个百分点;强光照下为 89.68%,提高 49.64个百分点,不同光照下平均检测率为 89.45%,平均提高47.28 个百分点,本文方法的平均检出角度偏差为 3.69,平均检出横向截距偏移率为 2.06%,处理 240 像素1280像素的图像平均耗时 0.88s,较对比算法减少用时73.89%。本文算法提高了检测的准确性与实时性水平。表1不同算法检测结果Table1Detect
40、ionresultsofdifferentalgorithms算法Algorithms光照条件Lightconditions检测率Detectedrate/%平均角度偏差Averagedegreedeviation/()横向截距偏移率Lateralinterceptdeviation/%处理时间Processingtime/sAdaboost弱光照44.223.621.813.37局部强光42.263.881.10强光照40.042.601.72本文Thispaper弱光照90.413.862.880.88局部强光88.263.722.42强光照89.683.490.88图 11 为 3 种光
41、照下两种算法成功检出结果对比,图 12 为两种算法误检结果对比。对比算法虽然对导航线中心位置判断较为准确,但导航线角度易受航线处超像素块识别结果影响,而其导航线附近超像素块正确识别率较差,导致了导航线检测率较低。由于本文算法使用纹理特征提取收割边界,而收割机作业过程中,相机由于处于运动状态产生拍摄结果“模糊”的情形,以及收割机行进过程中相机画面中出现了如轮胎压印等存在边界特征的对象,导致本文算法也出现了一定程度的误检。a.弱光照a.Weak lightb.局部强光照b.Local strong lightc.强光照c.Strong lightAdaboost本文This paper注:图中红色
42、实直线为人工标注的收割边界,绿色实直线为算法提取的收割边界。下同。Note:Theredlineinthefigureistheboundarymanuallymarked,andthegreenlineistheboundaryextractedbythealgorithm.Thesamebelow.图 11不同光照条件下不同算法的检出结果Fig.11Detectedresultsofdifferentalgorithmsunderdifferentlightingconditionsa.弱光照a.Weak lightb.局部强光照b.Local strong lightc.强光照c.Str
43、ong lightAdaboost本文This paper图 12不同光照条件下不同算法的误检结果Fig.12Undetectedresultsofdifferentalgorithmsunderdifferentlightingconditions128农业工程学报(http:/www.tcsae.org)2023年3结论1)提出了基于多纹理特征的麦田收割边界检测方法,利用熵特征反映图像一定窗口内像素点数量关系以及方向梯度特征反映一定窗口的方向纹理特性的特点,构建了二维互补纹理特征;结合特征直方图的特点,通过最大熵阈值分割算法获得特征二值化图;通过去除小连通区域与 Ransac 数据点拟合算
44、法处理特征二值化图得到了麦田收割边界。2)在熵特征提取中,本文结合滑动窗口算法改进直方图统计方式,加快熵特征提取速度。处理一张 240 像素1280 像素的图像,传统熵特征提取算法耗时 1.05s,本文熵特征提取算法耗时 0.53s,提速约 49.52%。3)相比 Adaboost 集成学习算法,本文通过选择本场景下两种纹理特征进行互补,缩短了特征提取时间,同时避免多余特征对收割与否造成误判,提高了收割边界检测率。对于 240 像素1280 像素的图像,Adaboost集成学习算法提取收割边界耗时 3.37s,本文算法耗时0.88s,提速约 73.89%,基本满足农机自主导航技术的实时性要求。
45、在检测率方面,本文算法在弱光照下为90.41%,局部强光下为 88.26%,强光照下为 89.68%,较对比算法分别提高 46.19、46.00 和 49.64 个百分点,检测率较对比算法提升明显。参考文献董金荣.智慧农业发展现状及战略目标研究J.新农业,2022(14):103-104.1刘成良,林洪振,李彦明,等.农业装备智能控制技术研究现状与发展趋势分析J.农业机械学报,2020,51(1):1-18.LIUChengliang,LINHongzhen,LIYanming,etal.Analysison status and development trend of intelligen
46、t controltechnologyforagriculturalequipmenJ.TransactionsoftheChineseSocietyforAgriculturalMachinery,2020,51(1):1-18.(inChinesewithEnglishabstract)2夏训谅,张普海,王家栋.油菜联合收割机收获与人工收获损失率对比试验分析J.湖北农机化,2020(11):16-17.3XIE Y,CHEN K,LI W,et al.An Improved AdaptiveThresholdRANSACMethodforMediumTillageCropRowsDetec
47、tionC.20216thInternationalConferenceonIntelligentComputingandSignalProcessing(ICSP),2021:1282-1286.4张岩,潘胜权,解印山,等.相机与毫米波雷达融合检测农机前方田埂J.农业工程学报,2021,37(15):169-178.ZHANGYan,PANShengquan,XIEYinshan,etal.Detectionofridgeinfrontofagriculturalmachinerybasedonfusionofcamera and millimeter wave radarJ.Transac
48、tions of theChineseSocietyofAgriculturalEngineering(TransactionsofCSAE),2021,37(15):169-178.(in Chinese with Englishabstract)5蔡道清,李彦明,覃程锦,等.水田田埂边界支持向量机检测方法J.农业机械学报,2019,50(6):22-27,109.CAI Daoqing,LI Yanming,QIN Chengjin,et al.Detection6method of boundary of paddy fields using support vectormachineJ
49、.Transactions of the Chinese Society forAgriculturalMachinery,2019,50(6):22-27,109.(inChinesewithEnglishabstract)刁智华,赵明珍,宋寅卯,等.基于机器视觉的玉米精准施药系统作物行识别算法及系统实现J.农业工程学报,2015,31(7):47-52.DIAOZhihua,ZHAOMingzhen,SONGYinmao,etal.Croplinerecognitionalgorithmandrealizationinpesticidesystembased on machine visi
50、onJ.Transactions of the ChineseSocietyofAgriculturalEngineering(TransactionsofCSAE),2015,31(7):47-52.(inChinesewithEnglishabstract)7ZHENGH,WANGQ,JIJ.NavigationLineExtractionBasedonImageProcessingforWeedingRobotC.IECON202248thAnnualConferenceoftheIEEEIndustrialElectronicsSociety,Brussels,2022:1-5.8AH