1、文章编号:1002-2082(2023)01-0202-09单目视觉融合激光投射的无人机障碍探测方法刘峰1,2,汪瓒1,2,王向军1,2(1.天津大学精密测试技术及仪器国家重点实验室,天津300072;2.天津大学微光机电系统技术教育部重点实验室,天津300072)摘摘 要:要:针对微小型无人机在飞行作业任务中的主动避障需求,提出一种用于微小型无人机避障的、基于单目视觉与主动激光点阵投射的障碍探测方法。使用单目相机采集投射的激光点阵图案,经过图像分割、聚类、质心提取等处理过程,通过像面激光线方程约束快速排除特征一致激光点的歧义,使用激光点探测出无人机前方空间中障碍的方位信息。实验验证装置在基线
2、距离为65mm,工作距离为 7m 的条件下,障碍探测的相对误差在 1.5%以内。该方法精度高、时间复杂度低,可满足低算力的微小型无人机对障碍探测方法的需求,为进一步避障策略的生成提供数据支撑。关键词:关键词:障碍探测;微小型无人机;单目视觉;空间方位中图分类号:TN206文献标志码:ADOI:10.5768/JAO202344.0107002Obstacles detection method for UAV based on monocular visionand laser projectionLIUFeng1,2,WANGZan1,2,WANGXiangjun1,2(1.StateKey
3、LaboratoryofPrecisionMeasuringTechnologyandInstruments,TianjinUniversity,Tianjin300072,China;2.KeyLaboratoryofMicroOpticalElectroMechanicalSystemTechnology(MinistryofEducation),TianjinUniversity,Tianjin300072,China)Abstract:Inordertomeettherequirementofactiveobstacleavoidanceofmicrominiatureunmanned
4、aerialvehicle(UAV)inflightmission,anobstaclesdetectionmethodbasedonmonocularvisionandactivelaserlatticeprojectionofmicrominiatureUAVforobstaclesavoidancewasproposed.Theprojectedlaserlatticepatternswerecollectedbyamonocularcamera,andthroughtheprocessesofimagesegmentation,clusteringandcentroidextracti
5、on,theambiguityofthecharacteristicconsistentlaserpointwasquicklyeliminatedbytheconstraintofthelaserlineequationoftheimageplane.ThelaserpointswereusedtodetectthedistributionofobstaclesinthefrontspaceoftheUAV.Theexperimentalresultsshowthattherelativeerrorofobstaclesdetectioniswithin1.5%whenthebaseline
6、distanceis65mmandtheworkingdistanceis7m.Theproposedmethodhashighaccuracyandlowtimecomplexity,andcanmeettherequirementsforobstaclesdetectionmethods of microminiature UAV with low computing power,which provides the data support for thegenerationoffurtherobstaclesavoidancestrategies.Key words:obstacles
7、 detection;microminiature unmanned aerial vehicle;monocular vision;dimensionalorientation引言近年来,微小型无人机因其体积小、机动能力强的优势在民用、军用领域得到广泛应用,但其本身对机载设备的体积、重量等参数有着严苛的要收稿日期:2022-05-10;修回日期:2022-06-13基金项目:国家自然科学基金面上项目(51575388)作者简介:刘峰(1978),男,博士,主要从事图像分析与计算机视觉、光电传感与探测方面的研究。E-mail:通信作者:汪瓒(1997),男,硕士研究生,主要从事无人机避障、视觉
8、测量方面的研究。E-mail:sang_第44卷第1期应用光学Vol.44No.12023年1月JournalofAppliedOpticsJan.2023求,在自动避障方面为机载障碍探测系统设计带来了一些挑战1-6。在目前已有的障碍探测方法中,文献 7 使用二维激光雷达作为障碍探测手段获取环境信息,将三维空间的避障问题简化成二维,不考虑无人机在垂直地面方向上的移动,因使用了激光雷达,具有精度上的优势;文献 8 使用单线结构光作为障碍探测手段,同样不考虑垂直地面方向上的移动,能够测量出无人机飞行过程中前方障碍物的距离、方位角度和宽度;文献 9融合了深度相机和激光雷达作为障碍探测手段,利用 SL
9、AM(同步定位与建图)算法,将空间中的障碍物信息建成地图,取得了良好的避障效果:上述3 个方法存在一个共同的问题,因为分别涉及到激光点云处理、线结构光图像、深度 SLAM 算法处理,数据量和计算量庞大,在搭载了计算性能较强平台的中大型无人机上或在离线任务中会有比较好的表现,但在实际应用中很难将这些方法使用到微小型无人机在线任务当中,不能满足计算快的要求。文献 10 使用双目视觉系统作为障碍探测手段,在基线距离为 120mm 的条件下,可用于5m 内的障碍探测,但双目视觉系统不能应用于纹理特征少或光照条件差的环境当中,且要提高精度则势必要增加传感器的体积,难以满足通用性和小型化的要求。在技术已经
10、成熟的工业产品中,英特尔公司的 RealSense 深度摄像头用到了散斑测量的原理11,体积小、输出帧率较高,已得到广泛应用,但此测量方法的工作距离极其有限,如2020 年发布的 D455 型在基线距离超过 100mm 情况下,能够保证 2%测量相对误差的工作距离仅为4m,难以满足通用性的要求。基于以上分析,本文提出了一种单目视觉融合激光投射的无人机障碍探测方法,投射激光点阵图案,使用单目相机采集图像,通过像面激光线方程约束快速排除特征一致激光点的歧义,实现使用投射激光点阵图案解决单目歧义性的效果,输出前方空间中多个投射激光点的位置坐标,为微小型无人机实时生成避障策略提供数据保证。1 多点激光
11、投射单目视觉测量模型本文中相机模型采用了针孔摄像机模型,由相机坐标系到像素坐标系的映射可以用(1)式表示:Zcuv1=fx0u000fyv000010XcYcZc1(1)(Xc,Yc,Zc)(u,v)fx,fy,u0,v0M1fx,fyxy(u0,v0)式中是激光点在相机坐标系下的位置坐标,是激光点成的像在图像坐标系中的坐标,而矩阵中的是相机内参矩阵的参数,分别代表 轴和 轴上的归一化焦距,则是图像中心,这 4 项参数通过相机标定得到。将(1)式的第一行单独提取出来可得:Zcu=fxXc+u0Zc(2)空间中直线方程的一般表达形式为XcXc0l=YcYc0m=ZcZc0n(3)(l,m,n)(
12、Xc0,Yc0,Zc0)k1=ln,b1=Xc0lnZc0,k2=mn,b2=Yc0mnZc0(3)式称为空间直线的标准方程,在标准方程中,为直线的方向矢量,为直线上的已知点。设,则可将(3)式改写为Xc=k1Zc+b1Yc=k2Zc+b2(4)k1,b1,k2,b2Xc这里的这 4 个参数皆通过激光线方程标定获得,(4)式在几何意义上代表了空间中2 个平面的交线12。与(1)式联立消去可得:uu0fxZc=k1Zc+b1(5)整理得:Zc=b1fxuu0k1fx(6)类似地,也可以得到Zc=b2fyvv0k2fy(7)k1,b1,k2,b2(u,v)ZcXcXc,Yc(Xc,Yc,Zc)式中
13、的这些参数为空间激光的结构参数,4 个参数确定了唯一的一条空间激光直线,通过空间激光点阵标定获得。只需要获得激光点的像在图像坐标系下的坐标,即可通过(6)式或(7)式求得激光点的深度信息,在实际应用中,需根据激光器和相机的不同安装方式选择不同的深度信息计算公式。若相机光学中心与激光器中心的连线与相机坐标系的轴夹角更小,则使用(6)式进行计算,反之则使用(7)式。再由(4)式或(1)式即可求得,进一步得到激光点在相机坐标系下的坐标。若投射出多束激光线,就可以得到多个投射到障碍物上形成的光点,从而估计出视野中障碍物的方位信息。为获得多束激光线,本文在激光器前方安装分束光栅,可将单束激光线变为 9
14、点圆环图案的激光投射图案,如图 1 所示。为便于后文表述,将中心的点记为“中心 0 号激光点”,其上方的点记为应用光学2023,44(1)刘峰,等:单目视觉融合激光投射的无人机障碍探测方法203“1 号激光点”,按照顺时针顺序,将剩余点分别命名为 2 号8 号激光点。1 号点2 号点0 号点图 1 9 点激光图案Fig.1 Laser pattern of nine points2 多点激光投射单目视觉测量系统标定视觉系统的标定主要包括相机参数标定和空间激光点阵图案的标定。2.1 系统标定总体流程1)准备一个张氏标定法的棋盘格靶标,棋盘格的大小已知,用待标定的相机拍摄若干张摆放成各种角度的棋盘
15、格靶标的图像,记为 A 组图像。2)开启激光器,摆放棋盘格靶标使激光点落在靶标上,拍摄各个角度带有激光点的棋盘格靶标的图像,并记为 B 组。此处需要保证对于每一个激光点(如中心 0 号激光点),需要采集至少 2 张带有该激光点的棋盘格靶标图像,此外若考虑使标定结果尽可能小地受到随机误差和粗大误差的影响,减小激光点对棋盘格角点提取的干扰,需要采集 10 张以上的图片。M13)利用上述 A 组和 B 组图像,使用张氏标定法13标定相机的内部参数矩阵。(Xw,Yw,Zw)4)对于 B 组的每一张图像,提取出激光点的中心,另外图片中激光点中心在棋盘格靶标上的世界坐标是已知的。M2(Xc,Yc,Zc)5
16、)通过张氏标定法得到 B 组每一张图片的外部参数矩阵,该矩阵与上一步中得到的世界坐标相乘,得到 B 组每一张图片上激光点在相机坐标系下的坐标。6)针对投射图案的 9 个光点,使用最小二乘法得到每一个光点所在空间直线的方程,每个方程包含 4 个参数,总计得到 9 组共 36 个参数。2.2 相机参数标定M1k1,k2k1,k2p1,p2M2相机参数标定,主要是确定相机的内参矩阵,用于后续计算;确定径向畸变参数(此处仅代表相机的径向畸变参数,与空间激光点阵图案标定中的无关)和切向畸变参数,对图像进行畸变校正;确定外参矩阵,用于计算 B 组每张图像中的标定板坐标系相对于相机坐标系的位姿,从而得到标定
17、板上的激光点的位置信息,用于空间激光点阵图案的标定。2.3 空间激光点阵标定使用位于不同位姿的棋盘格靶标图像以及得到的靶标上的激光点位置,即可通过多张图像中的激光点空间坐标拟合得到激光点阵图案中每个点所在激光线的空间直线方程。由 1.1 节模型推导可知,相机坐标系下的空间直线方程在几何意义上可以表示为空间中 2 个平面的交线,用方程表示为(4)式的形式。利用离差平方和最小的原则确定方程中的参数,即令QX=(Xcik1Zcib1)2QY=(Ycik2Zcib2)2(8)QX取值最小,将经过变形和整理,可得:QX=n(b1(Xck1Zc)2+(ZciZc)2k1(ZciZc)(XciXc)(Zci
18、Zc)22(ZciZc)(XciXc)2(ZciZc)2+(XciXc)2(9)(ZciZc)(XciXc)2(ZciZc)2+(XciXc)2k1,b1QXn(b1(Xck1Zc)2(ZuiZc)2kq(ZcZc)(XciXc)(ZciZc)22(9)式 的 后 两 项与无关,为常数项,若要使最小,则需要令和两项分别为 0,由此可以得到:k1=nXciZciXciZcinZ2ciZciZcib1=Xck1Zcin(10)QY同理通过令最小,可以得到:204应用光学第44卷第1期k2=nYciZciYciZcinZ2ciZciZcib2=Yck2Zcin(11)k1,b1,k2,b2将 2.1
19、 节中通过步骤 5)得到的各组激光点的坐标分别代入(10)式和(11)式即可求得激光点阵图案的结构参数,这样的参数有 9 组。3 基于像面激光线方程约束的激光点阵图像处理和质心提取单目相机采集的 RGB 图像中包含了大量的无关信息,障碍探测的关键是从 RGB 图像中提取出9 个激光点质心的像素坐标信息代入(6)式进行计算。图像处理和激光点质心提取过程可分为 3 个步骤,分别是:1)将 RGB 图像转化到 L*a*b*色彩空间,在 L*a*b*色彩空间上进行激光点阵图像的分割;2)使用种子生长法将分割出的激光点阵图像进行光斑聚类和质心提取;3)使用像面激光线方程约束排除杂光斑和光点缺失的干扰,将
20、提取出的光斑质心与激光点一一匹配。3.1 基于 L*a*b*色彩空间的激光点阵图像分割方法为了提取图像中的激光点信息,需要将图像进行分割,因为无人机工作环境中色彩、光照条件复杂,使用基于 RGB 色彩空间的阈值分割方法难以取得好的分割效果。本文使用基于 L*a*b*色彩空间的图像分割方法,L*a*b*色彩空间是一个三维的色彩空间,具有 L*、a*、b*三个基本分量。其中L*分量代表亮度,L*=0 时指示黑色,L*=100 时指示白色;a*分量和 b*分量理论上是无界的,但在计算机中一般用一个有限范围之间的值来表示,a*0 时,绝对值越大越趋向于指示绿色;b*0 时,绝对值越大越趋向于指示黄色1
21、4。L*a*b*色彩空间的这种特点非常适合用于激光图像的分割:激光光斑的特征一般是中心亮度极高,边缘带有少量色彩信息。在 L*a*b*色彩空间中,激光光斑中心的 L*分量接近 100,便于分割出激光光斑的中心部分;另外最常用的激光器光源主要有波长为 650nm 的红光、520nm 的绿光、450nm 的蓝光等,而使用 a*分量或 b*分量其一即可有效地分割出激光光斑边缘的色彩信息。RGB 色彩空间到 L*a*b*色彩空间的转换如(12)式:Csrgb=C255(12)CR,G,BCsrgbRsrgb,Gsrgb,Bsrgb式中:代表三个分量的其中之一,代表标准化后的三个分量的其中之一。Clin
22、ear=Csrgb12.92,Csrgb 0.040 45(Csrgb+0.0551.055)2.4,Csrgb 0.040 45(13)ClinearRlinear,Glinear,Blinar式中代表三个分量的其中之一。XYZ=0.412 40.357 60.180 50.212 60.715 20.072 20.019 30.119 20.950 5RlinearGlinearBlinear(14)L=116f(Y100)16a=500f(X95.048 9)f(Y100),b=200f(Y100)f(Z108.884 0)where f(t)=3tif t 3t32+429otherw
23、ise,=629(15)L84.639,99.655,b 9.691,7.890经 过 多 组 实 验 对 比,使 用 经 验 取 值可取得较好的分割效果,得到包含激光光斑信息的二值图像,如图 2 所示。(a)本文视觉系统所采集图像的一部分(b)基于L*a*b*色彩空间的图像分割结果图 2 原始采集图像与基于 L*a*b*色彩空间的图像分割结果Fig.2 Original acquired image and image segmentationresults based on L*a*b*color space3.2 基于种子生长法的激光光斑聚类和质心提取方法(u,v)对 RGB 图像进行了
24、图像分割后,形成了包含激光光斑信息的二值图像,还需要对分割出的激光光斑进行聚类操作,以确定图像中哪些像素的激光图像是同一束激光束产生的,并提取其质心作为该激光光斑的中心点,将中心点坐标代入(6)式计算出激光光斑相对单目相机的空间位应用光学2023,44(1)刘峰,等:单目视觉融合激光投射的无人机障碍探测方法205置。激光光斑聚类过程可以简述为:(1,1)1)从图像坐标开始遍历包含激光光斑信息的二值图像,直至遇到白色像素点,将该像素点的坐标作为种子点入栈并编号;2)判断栈是否为空,若不为空,则弹出栈顶元素,判断该像素点坐标附近的 8 连通像素点是否也为白色,若为白色,则编同样的序号,并将这样的像
25、素点的坐标入栈;3)直至栈为空,下一次遍历到白色像素点时的序号+1;4)遍历完成后,形成该二值图像的“编号标记矩阵”,尺寸与原图像相同,并包含有不同光斑聚类的编号信息15;5)遍历编号标记矩阵,对具有相同编号的像素点的横坐标、纵坐标分别求平均,即可得到每个光斑聚类的质心点坐标。图 3 是将上节分割后的图像进行基于种子生长法的激光光斑聚类和质心提取之后的结果,图中用不同颜色的星号表示了各个光斑的质心位置。图 3 激光光斑聚类和质心提取结果Fig.3 Results of spot clustering and centroid extraction3.3 像面激光线方程约束下的特征一致光点快速搜
26、索方法获取到各聚类的质心点坐标后,还不能够直接得到各光斑实际的空间位置,原因有二:一方面激光图案经过空间物体的调制,已经失去了原来的几何特征,产生了变形,或者部分被遮挡产生了缺失,无法仅通过原图案的特征得到激光光斑与激光点编号之间的对应关系,如图 4(a)所示,原本激光图案外侧的 8 个点可以围成一个规整的圆形,经过空间物体的调制后明显不再具有这种特征,另外原本激光图案左下方位的 6 号激光点被平面靶标遮挡,产生了缺失;另一方面,图像中的光斑有时并非全都是由激光束投射到障碍物上产生的,因微小型无人机工作环境复杂,有可能受到镜面反光物体、高亮度物体的干扰产生杂光斑,影响激光图像分割的结果,如图
27、4(b)所示,可以注意到红圈指示的图像下方的桌脚部分存在镜面反光,影响到图 4(c)所示的激光图像分割的效果。(a)投射图案形变及光点缺失(b)镜面反光物体干扰(c)受到影响的激光图像分割结果图 4 受到影响的激光图案Fig.4 Affected laser patterns本文使用像面激光线方程作为约束,排除杂光斑的干扰,并将激光光斑与激光束相匹配。由针孔相机模型的特点可知,空间中的直线映射到像平面上后也会是一条直线。在实际的图像中,因为相机获得的图像存在畸变,所以需要先进行畸变矫正这个结论才能够成立。本文 2.2 小节通过张氏标定法确定相机的参数矩阵,同时得到相机的畸变参数,图像经过畸变校
28、正之后,可以认为一条激光束映射到平面后也是一条直线,即该激光光斑的中心点在图像中所有可能出现的位置可以连成一条直线。在前述的标定过程中,得到的B 组图像包含有激光光斑,提取这些光斑的质心点坐标,即可通过最小二乘方法求得像面激光线方程,再通过计算各个光斑质心与各像面激光线的距离,即可快速排除杂光斑的干扰,将激光光斑与产生它的编号激光点一一匹配。如图 5 所示,红色虚线描出的即为像面激光线的约束线及其对应编1 号2 号8 号3 号0 号7 号4 号6 号5 号图 5 像面激光线约束Fig.5 Constraint of laser line on image plane206应用光学第44卷第1期
29、号。根据经验,保留与直线的距离在 5 个像素以内的光斑质心点,并选取其中距离最近的点作为对应编号的匹配点,可取得较理想的效果。4 实验过程与结果分析4.1 实验系统构建为验证本文方法的有效性,如图 6 所示,构建了一套单目视觉与投射激光点阵图案融合的探测装置和实验环境。探测装置的主体是单目相机与激光器刚性固连的结构,相机的光学中心与激光器中心的距离约为 65mm,激光器前方安装 9 点圆环形状的光栅元件,激光器发出的光经过光栅形成 9 点圆环图案的激光投影。实验系统使用的主要硬件型号如下:激光器光源为 GSPLM450805D12-AL 型号激光器;光栅元件是定制的 9 点圆环图案;单目相机为
30、 KSA2A242 型宽动态相机模组,分辨率为 19201080 像素,帧率为 30 帧/s,镜头视场角为 30。标定和测量实验中使用的棋盘格靶标尺寸为 107,每个方格的边长为 30mm。4.2 视觉系统标定结果根据本文 2.1 节标定过程获得的标定数据,包含相机内部参数、畸变参数等(见表 1),激光点阵图案的空间结构参数如表 2 所示。表 1 相机标定参数Table 1 Camera calibration parametersfx,fy/pixelu0,v0/pixelkc相机标定参数4191.52,4195.61862.89,480.090.506,0.710,0.000,0.000表
31、 2 激光图案的空间结构参数Table 2 Spatial structure parameters of laser patterns激光点编号结构参数k1b1k2b200.023568.55740.03684.240410.015966.64690.00991.919520.053971.00480.00111.396430.072264.66560.03140.289740.063767.77730.06900.513950.030966.93350.09139.387060.005870.39390.07970.097770.025469.78330.04435.823980.0160
32、68.50980.00971.49034.3 障碍探测实验及结果障碍探测实验主要目的是探究在一定工作距离内,本文方法对障碍位置的测量效果和精度。障碍探测实验的具体内容如下:1)固定本文的实验装置,开启激光器。2)在实验装置前方 7m 范围(本文方法设计适用的工作距离)内移动,使用棋盘格靶标接收激光器投射出的一个光点,与此同时相机采集这个移动过程的视频,图像中包含有在每个位置的棋盘格的图像,这组视频用于探究在 1m7m 的距离范围内的本文方法对障碍位置测量的精度;将棋盘格靶标分别移动到 10m、15m 附近的位置接收激光器投射的光点并采集视频,这 2 组视频用于探究在工作距离与基线距离比值较大的
33、情况下方单目相机模组激光器分束光栅(a)实验装置(b)实验场景图 6 实验装置场景图Fig.6 Scene graph of experimental device应用光学2023,44(1)刘峰,等:单目视觉融合激光投射的无人机障碍探测方法207法的效果。3)重复步骤 2),直至分别采集了关于 9 个激光点的视频。(Xcalib,Ycalib,Zcalib)(Xcal,Ycal,Zcal)从步骤 3)的视频分别随机取若干帧,剔除影响棋盘格角点提取的帧图像,将这些包含有棋盘格的帧图像插入原始标定图像组中,使用张氏标定法获得每张图像中相机相对于棋盘格的位姿(即外参),由此求出棋盘格上激光点在相机
34、坐标系下的坐标,将这个作为激光点的坐标真值,将本文方法求得的值记为,作为激光点的坐标测量值。以 1 号激光点为例,表 3 展示了关于 1 号激光点的测量数据。从表格的前 10 行可以看出,在 7m 的工作范围内,测得的激光点的 X 坐标的测量绝对误差在8.50mm58.87mm 范围之间;Y 坐标的测量绝对误差在 0.01mm9.25mm 之间,且都有随着工作距离的增加而变大的趋势。而在更为关键的深度方向上,Z 坐标的测量绝对误差在0.47mm103.43mm之间,进一步计算出其相对误差,得到 Z 坐标的测量相对误差在 0.01%1.48%之间。类似地,对08 号所有激光点的实验数据进行整理,
35、可以得到图 7 所示的随工作距离变化的 Z 坐标测量相对误差分布图。表 3 “1 号”激光点的测量数据Table 3 Measured data of the No.1 laser pointmm组数坐标真值坐标测量值绝对误差XcalibYcalibZcalibXcalYcalZcalXYZ147.4615.611257.8555.9615.591244.458.500.0113.39244.3316.801363.5855.2417.181346.4210.910.3817.17337.8419.811832.4251.8621.961820.1514.032.1512.28431.5924
36、.082137.7549.7025.642124.7118.111.5613.04522.5125.962739.6545.4232.262725.9822.916.3013.67614.6332.793216.2341.8337.483230.3427.214.6914.1170.0445.004306.6933.9950.274332.5433.945.2725.86814.0951.175034.9228.9958.425035.4043.077.250.47923.3056.395628.5224.6465.515646.0347.949.1217.511044.4072.856972
37、.7914.4682.107076.2158.879.25103.431181.90104.4810044.835.4498.758344.4487.345.731700.3912127.28164.3315144.3019.85146.3411898.66107.4317.993245.64从图 7 中观察到在 7m 的工作范围内,Z 坐标的测量相对误差(的绝对值)是一个先减小后增大的过程,在 3m6m 之间的位置能够取得最好的测量效果。表 3 的 11 行展示了在 10m 工作距离上的误差水平,X 坐标的误差上升到 87.34mm,Y 坐标的 误 差 来 到 5.73mm,Z 坐 标 的
38、相 对 误 差 达 到16.93%;表 3 的 12 行展示了在 15m 工作距离上的误差水平,X 坐标的误差来到 107.43mm,Y 坐标的误 差 来 到 17.99 mm,Z 坐 标 的 相 对 误 差 达 到21.43%。由此可以看出在超过了 7m 的工作范围后,虽然还具有一定的障碍探测能力,但可靠性大幅降低,可通过换用高解析力 CMOS、增加标定用图片数量、使用亚像素级质心提取算法等手段提高方法精度和工作范围。本文验证实验中使用的 9 点圆环的激光投射图案的尺寸为直径 400mm(当投射距离为 1m时)。对于宽高尺寸小于激光投射图案尺寸的小型障碍,本文方法可以有效探测到该障碍目标;而
39、当障碍目标是尺寸超出激光投射图案的大型障碍时,则通过无人机飞控的特定飞行策略进行组合探测,在飞行过程中确定障碍目标的边界。当与前方障碍之间的距离为 L 时,在单次静态测量中能分辨的最小尺寸为 0.15L,也即投影图案上 2 点的最小距离,能够满足无人机障碍探测的分辨力要求。如需应用到对分辨力或探测效率要求更高的208应用光学第44卷第1期场景,可将激光投射图案更换光点更加密集的图案,如 1111 点阵激光图案,以提高障碍探测分辨力和探测效率。5 结论本文提出了一种基于单目视觉与主动激光点阵投射无人机障碍探测方法,经实验验证,在相机与激光器之间的基线距离为 65mm,探测距离为7m,即探测距离与
40、基线距离之比大于 1000 的条件下,达到了相对误差小于 1.5%的障碍探测效果。该方法的运算复杂度低,对于一帧图像,仅有 2 次图像遍历过程和有限次的浮点数运算。能够满足微小型无人机应用中对障碍探测功能模块的小型化、计算快等要求,且对于不同环境具有一定的通用性,能够为微小型无人机进一步生成避障策略提供数据支撑。参考文献:HUTianyu,SUN Xiliang,SU Yanjun,et al.Develop-1(g)6 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000(h)
41、7 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000(i)8 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000图 7 深度测量的相对误差折线图Fig.7 Line charts of relative error of depth measurement(a)0 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002
42、0003 000工作距离/mm4 0005 0006 0007 0000(b)1 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000(c)2 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000(d)3 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0
43、000(e)4 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000(f)5 号点Z坐标测量相对误差2.01.51.00.50.51.0相对误差/%1.52.01 0002 0003 000工作距离/mm4 0005 0006 0007 0000应用光学2023,44(1)刘峰,等:单目视觉融合激光投射的无人机障碍探测方法209ment and performance evaluation of a very low-costUAV-lidar system for forest
44、ry applicationsJ.RemoteSensing,2020,13(1):77.FANXuanmei,XUQiang,ALONSO-RODRIGUEZA,etal.Successive landsliding and damming of the JinshaRiverineasternTibet,China:primeinvestigation,earlywarning,andemergencyresponseJ.Landslides,2019,16(5):1003-1020.2MAESWH,STEPPEK.Perspectivesforremotesensingwithunman
45、nedaerialvehiclesinprecisionagricultureJ.TrendsinPlantScience,2019,24(2):152-164.3MENNDEZO,PREZM,AUATCHEEINF.Visual-based positioning of aerial maintenance platforms onoverheadtransmissionlinesJ.AppliedSciences,2019,9(1):165.4WANGJingjing,JIANGChunxiao,HANZhu,etal.Tak-ingdronestothenextlevel:coopera
46、tivedistributedun-manned-aerial-vehicular networks for small and minidronesJ.IEEEVehicularTechnologyMagazine,2017,12(3):73-82.5ZHANGXuejun,DUYanshuang,GUBo,etal.Surveyofsafety management approaches to unmanned aerialvehiclesandenablingtechnologiesJ.JournalofCom-municationsandInformationNetworks,2018
47、,3(4):1-14.6王海群,王水满,张怡.基于激光雷达信息的无人机避障控制研究J.激光杂志,2019,40(12):76-79.WANGHaiqun,WANGShuiman,ZHANGYi.ControlofUAVbarrieravoidancebasedonlidarinformationJ.LaserJournal,2019,40(12):76-79.7吴开华,王文杰.植保无人机结构光视觉的障碍物检测方法J.光电工程,2018,45(4):32-40.WU Kaihua,WANG Wenjie.Detection method ofobstacle for plant protecti
48、on UAV based on structuredlight visionJ.Opto-Electronic Engineering,2018,45(4):32-40.8高天禹,马雨婷,韩成哲,等.基于激光测距与单目视觉的微型无人机室内目标人物搜索方法研究J.中国科学:技术科学,2020,50(7):971-982.GAOTianyu,MAYuting,HANChengzhe,etal.Apply-ingamicro-UAVforsearchinganindoortargetpersonusing laser ranging and monocular visionJ.ScientiaSin
49、ica(Technologica),2020,50(7):971-982.9寇展,吴健发,王宏伦,等.基于深度学习的低空小型无人机障碍物视觉感知J.中国科学:信息科学,2020,50(5):692-703.KOUZhan,WUJianfa,WANGHonglun,etal.Obstaclevisual sensing based on deep learning for low-altitudesmall unmanned aerial vehiclesJ.Scientia Sinica(In-formationis),2020,50(5):692-703.10KESELMAN L,WOODF
50、ILL J I,GRUNNET-JEPSENA,et al.Intel(R)RealSense(TM)stereoscopic depthcamerasC/2017IEEEConferenceonComputerVisionandPatternRecognitionWorkshops.Honolulu,HI,USA:IEEE,2017:1267-1276.11AZETSUT,SUETAKE N.Hue-preserving image en-hancement in CIELAB color space considering colorgamutJ.OpticalReview,2019,26