一种多源数据融合的机器人导航技术.pdf
《一种多源数据融合的机器人导航技术.pdf》由会员分享,可在线阅读,更多相关《一种多源数据融合的机器人导航技术.pdf(9页珍藏版)》请在咨信网上搜索。
1、针对移动机器人在导航过程中存在的建图不精确、效率低下等问题,提出一种多源数据融合的移动机器人导航方法:利用扩展卡尔曼滤波融合激光雷达和深度相机的环境信息,通过位姿传感器获取机器人的位姿和加速度信息,提出基于激光雷达、深度相机和惯性测量单元数据融合的地图构建方法;并兼顾全局探测与局部求精的平衡,采用改进原子轨道搜索算法进行全局规划,利用动态窗口法完成局部避障。实验结果表明,多源数据融合建立的地图更接近于真实场景,改进后的融合算法未知障碍实时避障成功率达到 98%,能够提升机器人自主导航效率。关键词:数据融合;原子轨道搜索算法;动态窗口;移动机器人;导航 中图分类号:P228;TP242 文献标志
2、码:A 文章编号:2095-4999(2023)03-096-09 A robot navigation technology with multi-source data fusion GUO Li1,CHEN Mengyuan2,FU Ming3(1.Anhui Vocational College of Electronics&Information Technology,Bengbu,Anhui 233030,China;2.Anhui Polytechnic University,Wuhu,Anhui 241000,China;3.Anhui University of Fi
3、nance and Economics,Bengbu,Anhui 233030,China)Abstract:Aiming at the problems of inaccuracy and low efficiency of map construction in the navigation process of mobile robot,the paper proposed a robot navigation method based on multi-source data fusion:the extended Kalman filter was used to integrate
4、 the environment information of the laser radar and the depth camera,the pose and acceleration information of the robot was obtained by the pose sensor,and a map construction method based on the data fusion of the laser radar,the depth camera and the inertial measurement unit was proposed;then in or
5、der to balance global detection and local refinement,the improved atomic orbit search algorithm was used for global planning,and the dynamic window method was used for local obstacle avoidance.Result showed that the map built by multi-source data fusion would be closer to the real scene,and the succ
6、ess rate of real-time obstacle avoidance of unknown obstacles could be increased to 98%with the improved fusion algorithm,which would help improve the autonomous navigation efficiency of the robot.Keywords:data fusion;atomic orbital search algorithm;dynamic window;mobile robot;navigation 0 引言 随着计算机系
7、统、传感器等技术的发展,移动机器人已广泛应用于仓储、工业、医疗等领域1-3。导航技术作为机器人领域内核心技术之一,主要分为定位、环境搭建及路径规划。传 统 即 时 定 位 与 地 图 构 建(simultaneous localization and mapping,SLAM)方法仅仅依赖单 收稿日期:2022-12-23 基 金 项 目:国 家 自 然 科 学 基 金(61903002);安 徽 省 质 量 工 程 重 大 项 目(2020zdxsjg029);安 徽 省 教 育 厅 重 点 项 目(gxyqZD2021110);安徽省高校人文社会科学研究重点项目(SK2019A0920);
8、安徽省高校优秀青年人才支持计划重点项目(gxyqZD2018131);安徽省职业教育创新发展试验区项目(WJ-PTZT-041);安徽省质量工程人工智能技术应用专业教学创新团队项目(2021jxtd024);安徽省质量工程教学示范课项目(2020SJJXSFK021)。第一作者简介:郭丽(1982),女,安徽寿县人,硕士,副教授,研究方向为计算机技术、导航技术等。第 3 期 郭 丽,等.一种多源数据融合的机器人导航技术 97 一传感器进行实时定位和建图,导致系统鲁棒性差,导航效率低。多种传感器数据融合可以为移动机器人定位建图提供更好的数据支持,弥补单传感器检测的缺陷,从而提高导航系统的准确性和
9、鲁棒性。在传感器数据融合方面,滤波算法通常用于数据融合4。常见的滤波方法有贝叶斯滤波5、粒子滤波6、扩展卡尔曼滤波(extended Kalman filter,EKF)7等。路径规划是指基于多源感知数据,在环境中生成无碰撞路径,以保证机器人安全高效完成作业。在路径规划方法中,二维几何搜索法是最成熟的路径规划方法。此外,还有一些广泛使用的算法,如蚁群算法8、A*算法9、RRT 算法10、人工势场法11等。原子轨道搜索算法(atomic orbital search,AOS)是 Azizi M 提出的最新的智能算法之一12。该算法主要是基于量子力学及原子模型行为进行搜索获取最优解,具有寻优能力强
10、、收敛速度快等优势,可较好地应用于路径规划;但其同时也存在着易陷入局部最优等问题。基于目前研究的成果,为改善机器人依靠单一传感器定位及建图效果差等问题,同时提升路径规划算法效率,设计出一种基于多源数据融合的移动机器人导航方法:一方面,搭建一种基于激光雷达(light detection and ranging,LiDAR)、深度相机和惯性测量单元(inertial measurement unit,IMU)融合的实时定位建图方法;另一方面,融合改进 AOS 算法及动态窗口法(dynamic window approach,DWA)进行路径规划,实现移动机器人的实时高效导航。1 传感器建模 1
11、1.1 1 LiDAR 模型 LiDAR 数学模型主要有光束模型和似然场模型。因为机器人所处环境较为复杂,位姿微小变动就导致期望值发生巨大改变,对光束模型影响较大;因此实际场景中主要采用似然场模型。似然场模型基本原理是对环境进行高斯模糊,如图 1 所示。设d表示目标点坐标与环境中障碍物之间的最小距离,那么 LiDAR 观测模型可以表示为 (|,)(+)kkp zx mdd=(1)式中:m 为地图;为高斯分布函数;d 为运动过程中畸变的测量距离。图 1 似然场模型原理 1.2 深度相机模型 本文采用 KinectV2 深度相机进行研究,对其成像过程进行建模。假设实际环境中一点 P 通过小孔在成像
12、平面为 P,O 表示在相机坐标系 O-x-y-z 下的小孔,成像平面坐标系 O-x-y 中心到 O点的距离为 f。此时 P 的坐标为X,Y,ZT,经过成像后点 P 的坐标为X,Y,Z T,在真实情况下,经过小孔模型后的成像需要进一步转换成像素点。假设像素平面坐标系上 P 点的坐标为u,vT,则其与像素坐标系间的转换表达式为 ()w1uvRt =+uZPZ vKP(2)式中:K 为相机内部参数矩阵;当相机移动时,Puv为当前相机坐标系下位姿;Pw为世界坐标系下位姿;R 和 t 为相机的外参数;u、v 分别为像素平面横坐标及纵坐标;Z 为笛卡尔坐标系 z 轴的坐标。深度相机通过飞行时间法来测量像素
13、的距离:相机朝环境各物体发出脉冲,然后得到从发射到接收所耗时间,以此确定物体与当前位置的距离。其具体成像模型如图 2 所示。图中:Ppixel为像素坐标;up、vp为像素坐标系中横坐标及纵坐标;Pfilm为图像坐标;xf、yf为图像坐标系中横坐标及纵坐标;Pcamera为相机坐标;xc、yc、zc为图像坐标系中横坐标、纵坐标及高度坐标;Pworld为相机坐标;xw、yw、zw为真实世界坐标系中横坐标、纵坐标及高度坐标。在日常场景中会在相机前放透镜来提升拍摄质量,这同时会导致成像与真实场景出现偏差。假设平面上一点 P 的坐标为x,yT,对应的极坐标为r,T,其中 r 为极径,为极角。透镜造成的畸
14、变为径向畸变,表示当前坐标朝着 r 方向偏移。将相机透镜安装过程中存在的误差叫做切向畸变,98 导航定位学报 2023 年 6 月 图 2 深度相机模型 指在角度 上存在的偏移。可以通过不同的畸变参数对径向畸变和切向畸变进行矫正,具体表达式为 ()()()()xxk rk rp xyprxyyk rk rpryp xy=+=+2422121224221212122122(3)式中:x,yT为矫正前坐标;x,y T为矫正后坐标;径向畸变矫正参数为 k1和 k2,利用参数 k1矫正图像中心畸变较小的位置,k2则可以矫正图像边缘畸变较大的位置;p1、p2为切向畸变矫正参数。当深度相机收集到环境图像后
15、,因为图像中包含许多信息,需要根据图像特征从中选择出有代表性的点,然后再处理,这种方法称为特征点法。在 众 多 的 特 征 点 法 中 选 择 快 速 特 征 检 测 法(features from accelerated segment test,FAST)以加速检测。在检测出特征点后,要对比相机前后图像间的位姿,就要对 2 幅图像上的特征点进行关联,即特征匹配过程。传统的特征匹配方法计算量大,所耗资源多;因此本文利用光流法匹配特征。基于稀疏光流法(Lucus-Kanade,LK),使用反向组合光流来实现图像配准,其具体流程如下:步骤 1)计算前一帧图像模块强度 T(X)的梯度值?。步骤 2
16、)运算得出图像变换();(=W W X P)xuyv+在 x 轴零点处光流P(P=u,v)的雅可比矩阵WP并与步骤 1)中梯度相乘,得出最速下降。步骤 3)计算得到海森矩阵H。步骤 4)按照图形变换W的表达式,计算得出 T 的变换 I(W(X;P),并计算误差 I(W(X;P)-T(X)。步 骤5)依 据 最 速 下 降 更 新 误 差,即T(;?)()xTITWW X PXP。步 骤 6)计 算P:TxT=1WHPP(;)()ITW X PX,并更新图形变换W。步骤 7)重复步骤 4)6),直至满足P,为一个很小的正数。光流法可以有效降低错误匹配的概率,但是仍可能存在少部分误匹配的数据,对此
17、本文利用随机 抽 样 一 致 性 法(random sample consensus,RANSAC)进行剔除。具体流程如下:步骤 1)从特征集中任意选择 4 个不共线的数据,计算出变换矩阵,记作A模型。步骤 2)计算出特征集中所有样本与A的投影误差,如果其值小于阈值,则放于内点集合I。步骤 3)若此时内点集I样本数目多于最佳内点集合Ib,则令Ib=I,并更新迭代次数。步骤 4)判断当前迭代数是否达到最大迭代数,若是则输出内点集;反之,继续循环上述步骤。1.3 IMU 模型 相比于LiDAR和深度相机,IMU获得的机器人位姿信息更加准确。本文所采用的IMU观测模型为 ()()FFaaQaaggg
18、gQaMabnwMwbn=+=+RR(4)式中:上标a为加速度;w为角速度;g为陀螺仪;F为正交;R为各轴误差变换矩阵;M为尺度因子;Q为非正交;b表示零偏误差;n为其他误差。第 3 期 郭 丽,等.一种多源数据融合的机器人导航技术 99 2 多传感器数据融合建图 在机器人导航领域,SLAM的问题可以简单描述为:在未知环境中的机器人,可以根据位姿和地图信息估计自身的位姿,并能够在行驶过程中构建地图,从而实现自主导航13-15。SLAM问题的运动模型可表示为 ()(),kkkkkkkxf xuwzh x v=1(5)式中:xk为机器人位姿;zk为系统观测值;f()为系统运动函数;h()为系统观测
19、函数;uk为系统控制值;wk为系统过程噪声;vk为系统观测噪声。本文提出一种基于多传感器数据融合的建图方法,以解决环境中低障碍物无法感知的问题。该算法拟实现 LiDAR、深度相机、IMU 的信息融合,避免单一传感器导致的检测精度低的问题,提高SLAM 算法的准确性和稳定性。整个算法过程主要分为 4 个部分,即传感器标定、数据预处理、EKF 数据融合、建图与回环检测。在机器人的硬件设备中,传感器是最基本的硬件之一,它能够帮助机器人获取周围环境信息,从而更好地进行导航。本文机器人设备共搭载 LiDAR、深度相机和 IMU 3 种类型传感器,基于上述传感器模型,获取环境观测数据并对其进行标定。2.1
20、 数据预处理 数据预处理旨在将深度相机采集的图像转换成 LiDAR 数据,从而更好地进行下步一数据融合。转换原理如图 3 所示。图 3 数据转换原理 转换步骤如下:1)对采集的深度图像进行有效区域的划分,从而得到待处理的深度图像(u,v)。2)通过深度图像(u,v)和相机参数模型,获取深度相机的各像素在坐标系中的坐标M(x,y,z)。3)将空间点云(x,y,z)投影到激光扫描区域,计算图中角AOD的角度。计算公式为 arctanxz=(6)激光的扫描范围是,,激光束被分成N个部分,激光数据用激光lN表示,投射到阵列中的点M的索引值为n,二者具体表达式如下:()()/NnN=(7)l Nzx=+
21、22(8)2.2 基于 EKF 算法的数据融合 当单独使用深度相机或LiDAR进行地图构建时,由于单一传感器的缺陷,会有一定的误差。因此,本文利用EKF将深度相机数据和LiDAR数据进行融合,以提高定位的精度。在使用EKF进行数据融合时,由于LiDAR比深度相机的测量更为精准,因此将深度相机的测量值作为当前时刻的系统预测值,将LiDAR的测量值作为系统测量值,从而保证数据融合的准确性。EKF数据融合的步骤如下:1)预测操作。首先,设置好机器人的位置,并计算出其与起始点的误差协方差。使用深度相机收集的机器人行驶数据,将该值作为此时系统输入值uk,预测后一个时刻的位姿,并计算预测值的误差协方差。具
22、体表达式如下:(),k kkkku=xf x111(9)Tk kkkkkk=+PA PAQ111(10)式中:Ak为状态方程,kkkkxufx=A1的雅可比矩阵;Qk为预测状态高斯噪声的协方差矩阵。2)数据关联。在将深度相机和LiDAR数据融合之前,需要将它们的数据进行联接,以防止二者数据错配。根据获得的观测信息之间的马氏距离,判断 2 个传感器获得的数据之间的相关性。具体表达式如下:T,ijtk ktdtlcDPxZZ=221(11)式中:为可靠性;t为测量的位置误差;Zl为LiDAR的测量值;Zc为深度相机的测量值。3)更新状态。首先,需要算出卡尔曼增益Kk,然后用数据测量值校正原始系统预
23、测值。同时,通过Kk计算出数据融合的最佳预估值,并得出此时 100 导航定位学报 2023 年 6 月 的误差协方差。具体表达式如下:TTkk kkkk kkk=+KPHH PHR111(12)()()k kk kkkk k=+xxKzh x11(13)()k kkkk k=PIK HP1(14)式中:Hk为变换矩阵;Rk为测量的高斯噪声的协方差矩阵。2.3 地图构建和回环检测 根据EKF融合后的数据与图优化法搭建环境。利用迭代最近点(iterative closest point,ICP)算法将当前激光点云数据与子地图进行匹配,获得姿态变换关系,形成闭环约束插入到后端优化中。假设当前帧的Li
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一种 数据 融合 机器人 导航 技术
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。