基于YOLOv5+Deep...的车头时距混合分布模型研究_丁正道.pdf
《基于YOLOv5+Deep...的车头时距混合分布模型研究_丁正道.pdf》由会员分享,可在线阅读,更多相关《基于YOLOv5+Deep...的车头时距混合分布模型研究_丁正道.pdf(9页珍藏版)》请在咨信网上搜索。
1、测控技术2023 年第 42 卷第 7 期数据采集与处理收稿日期:2021 11 30基金项目:国家自然科学基金(52172387)引用格式:丁正道,吴红兰,孙有朝 基于 YOLOv5+DeepSOT 检测数据的车头时距混合分布模型研究 J 测控技术,2023,42(7):56 64DING Z D,WU HONG L,SUN Y C esearch on Time Headway Mixture Distribution Model Based on YOLOv5+DeepSOT De-tection Data J Measurement Control Technology,2023,42
2、(7):56 64基于 YOLOv5+DeepSOT 检测数据的车头时距混合分布模型研究丁正道,吴红兰,孙有朝(南京航空航天大学 民航学院,江苏 南京211106)摘要:为提高车头时距分布模型的准确性,提出一种基于 YOLOv5+DeepSOT 算法的样本采集方法,并拟合出一种双高斯 移位负指数混合分布模型。训练 YOLOv5 检测器模型和 DeepSOT 算法中的 eID模型对车头时距进行自动精确采集,建立双高斯 移位负指数混合分布模型来描述实际交通流中 3 种车辆驾驶状态:强跟驰、弱跟驰和自由流,对自动采集的车头时距样本进行拟合,利用最大期望算法对模型参数进行标定。经实例验证表明,基于 Y
3、OLOv5+DeepSOT 方法采集的车头时距样本与视频人工逐帧记录的样本之间的平均相对误差为 1 94%,满足车头时距样本采集准确率的要求;所提出的双高斯 移位负指数混合模型对自动采集车头时距样本的拟合结果通过了 K-S 检验,且拟合结果优于三元混合分布、二元混合分布和威布尔分布模型。关键词:图像检测;车头时距;混合分布模型;目标跟踪中图分类号:TP29文献标志码:A文章编号:1000 8829(2023)07 0056 09doi:10 19708/j ckjs 2022 03 238esearch on Time Headway Mixture Distribution Model Ba
4、sed onYOLOv5+DeepSOT Detection DataDING Zhengdao,WU Honglan,SUN Youchao(College of Civil Aviation,Nanjing University of Aeronautics and Astronautics,Nanjing 211106,China)Abstract:In order to improve the accuracy of time headway distribution model,a sample collection methodbased on YOLOv5+DeepSOT alg
5、orithm is proposed,and a double Gaussian-shift negative exponential mix-ture distribution model is fitted The YOLOv5 detector model and the eID model of DeepSOT algorithm aretrained to collect the time headway automatically and accurately,and a double Gaussian-shift negative exponen-tial mixture dis
6、tribution model is established to describe three vehicle driving states in real traffic flow:strongfollowing,weak following and free flow The automatically collected time headway samples are fitted and themodel parameters are calibrated by using the maximum expectation algorithm The results show tha
7、t the averagerelative error between the time headway samples collected based on YOLOv5+DeepSOT method and thoserecorded manually frame by frame is 1 94%,which satisfies the requirement of time headway sample collectionaccuracy The fitting results of the proposed double Gaussian shift negative expone
8、ntial mixture model for auto-matically collecting headway samples pass the K-S test,and the fitting results are better than the ternary mix-ture distribution,binary mixture distribution and Weibull distribution models65Key words:image detection;time headway;mixture distribution model;target tracking
9、车头时距是指在同向行驶的一列车队中,两辆连续行驶的车辆的车头驶过某一点的时间间隔。车辆的到达被视为一个随机事件序列,因此车头时距是一个随机变量,研究该变量的分布规律对于交通安全研究、通行能力分析、道路服务水平、优化道路设计和管理等具有重要意义1。由于交通流的到达具有某种程度的随机性,采用单一的标准统计模型很难描述这种随机性的统计规律。严颖等2 基于高斯混合模型将车头时距分为饱和状态和非饱和状态,但只考虑了饱和状态交通流的车头时距分布,未对自由流状态的车头时距进行研究。陶鹏飞等3 将车辆的行驶状态分为跟驰和自由流2 种状态,提出车头时距的混合分布模型。王福建等4 在陶鹏飞的研究基础上,引入强弱跟
10、驰状态,结合自由流状态的负指数分布模型,构建三元混合分布模型,但对于描述自由流状态的负指数分布模型,较小的车头时距出现的概率较大,这与实际情况不符。此外,对于车头时距研究的数据采集方式,以往多采用实地采集并填调查表格的方法,这种方法耗费大量人力和时间,且采集车头时距精确度较低。随着智能交通采集技术的发展,车头时距采集的方式逐渐增多。章庆等5 提出一种基于雷达数据的饱和车头时距检测方法,此种方法需要在道路上搭建微波发射设备,但对于多车道的检测需要布置多个雷达设备,且雷达在恶劣天气检测效果差。王殿海等6 采用基于自动车牌识别数据对不同车型的车头时距进行检测,采用不同数量单一模型的高斯混合模型对采集
11、的数据进行拟合,最后使用 AIC 准则对最优单一模型数量进行判断,计算过程复杂,且仅采用过车视频结合人工调查的方式模拟车牌数据采集,未进行车头时距自动采集的实践。严颖等2 虽然采用交叉口电子警察的号牌识别数据进行采集,但仅限于在有专业交通电子设备的路段进行采集,不具有便捷性,而且自动车牌识别数据的时间戳仅精确到秒,采样精度低。为实现车头时距样本的自动化采集并提高车头时距模型的准确性,采用 YOLOv5+DeepSOT 算法对车头时距样本进行自动精确采集,并提出一种车头时距混合模型。首先,分别训练用于车辆目标检测的YOLOv5 检测器模型和 DeepSOT 算法中用于描述车辆外观特征的 eID
12、模型,接着将过车视频每一帧输入到训练好的 YOLOv5 模型和 DeepSOT 算法便可实现对车辆的实时检测跟踪。在此基础上,抽取过车视频第一帧为基准图,在基准图中框选检测区域和设置检测线,通过检测车辆是否触碰到检测线来对车头时距样本进行自动采集;针对强跟驰、弱跟驰和自由流 3种驾驶行为特性,构建双高斯 移位负指数混合模型;根据自动采集的样本,采用最大期望(Expectation Max-imization,EM)算法拟合出双高斯 移位负指数混合模型,最后采用 K-S(Kolmogorov-Smirnov)检验对拟合结果进行拟合优度检验,并与三元混合分布、二元混合分布和威布尔分布模型的拟合效果
13、进行对比。1车头时距采集算法1 1YOLOv5 车辆检测模型YOLOv5 是一个单阶段探测器和基于区域的目标检测网络模型,由 3 个主要组件构成:BackBone、Neck和 Head7,因其高检测准确性和实时性而在各个领域被广 泛 研 究 与 应 用。YOLOv5 的 官 方 模 型 中 有YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x 等多个版本,性能和特点如表 1 所示。表 1YOLOv5 的官方模型的性能及特点模型参数量APtestSpeedv100/msFPSv100YOLOv5s73 10636822455YOLOv5m214 10644529345
14、YOLOv5l470 10648138264YOLOv5x877 10650160167表 1 中,YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x的模型参数量依次增大,其相应的检测精度也随之提升。然而随着模型变大,检测速度有所降低,可以看到YOLOv5s 检测速度为2 2 ms,而 YOLOv5x 的检测速度是其将近 3 倍。而在车头时距样本采集时,在满足检测实时性的情况下,模型的检测速度越高,则代表其每秒处理的帧数越多,从而其采集车头时距样本的准确度也越高。此外,在实际的采集车头时距样本中,为避免因传输过车视频环节带来的时间延迟导致样本采集的实时性降低,从而降低了车头时距自动
15、采集在智能交通中的实时性应用价值的问题,应采用路侧边缘端处理,较大参数量的模型对边缘端设备的性能有很高的要求,设备采购成本将会极大地增加。因此,选择小参数量的 YOLOv5s 模型无疑是降低车头时距采集成本,提高车头时距采集准确度和实时性的较好选择。故本文选用 YOLOv5s 模型检测车辆,关于 YOLOv5s 模型的车辆检测精确度问题,将在下文的测试结果中表明其是否满足采集需求。1 1 1数据集本文所采用训练 YOLOv5 模型的数据集是从网络75基于 YOLOv5+DeepSOT 检测数据的车头时距混合分布模型研究上的过车视频中截取的,图像中车辆全为朝向镜头行驶方向,共 300 幅,其中包
16、括单目标图像、多目标图像和目标重叠等图像,图 1 为数据集中车辆检测的主要场景,展现了数据集中 3 种较为典型的检测场景。图 1数据集中车辆检测的主要场景因为用来训练模型的数据较少,为了提升模型泛化性并避免过度拟合,所以对数据集进行数据增强处理以扩充数据集8,数据增强的部分图片如图2 所示。图 2数据增强的部分图片每幅图像都有 2 个增强版本,因此最终数据集图像数量比原始图像数量增加了 2 倍。利用 makesense ai 标注软件对所用数据集图片进行标注,转化为训练所用的 txt 格式,并将数据集以 81 1的比例分为训练集、验证集和测试集。1 1 2模型改进(1)采用 CIoU(Comp
17、lete Intersection over Union)损失函数。交并比(IoU)是一种评价目标检测器性能的指标,是由预测框与目标框间交集和并集的比值计算,其考虑的是预测框和目标框重叠面积。IIoU=ABAB(1)式中:A 为预测框;B 为目标框。然而,IoU 没有引入目标框与预测框中心的之间的距离信息和边界框宽高比的尺度信息,这使得目标物体的预测框无法准确贴合目标。但在采集车头时距样本时,检测框是否贴合目标的真实轮廓和是否稳定决定着检测框能否代表车辆的准确位置,这直接影响着样本的采集精度。而 LLoss,CIoU作为改进模型的边界框损失函数,考虑了边框中心距离和边框宽高比的尺度信息,使网络
18、在训练时可以保证预测框快速收敛,并能够得到更高的回归定位精度。CIoU 计算公式为ICIoU=IIoU2(b,bgt)c2 v(2)式中:b 和 bgt分别为预测边框和真实边框的中心点;(b,bgt)为两框中心点间距离;c 为预测框与目标框的最小外接矩形的对角线距离;和v 由式(3)、式(4)计算。=v1 IIoU+v(3)v=42(arctanwgthgt arctanwh)2(4)式中:h 和 hgt分别为预测框与目标框的高度;w 和 wgt分别为预测框与目标框的宽度。LLoss,CIoU计算公式为LLoss,CIoU=1 ICIoU(5)(2)采用 DIoU-NMS(Distance-I
19、oU-Non-MaximumSuppression)。在传统的 NMS 中,IoU 常用于提取置信度高的目标检测框,而抑制置信度低的误检框。其操作方法是,选取得分最高的检测框 M,将与 M 的 IoU 大于 NMS 阈值的其他检测框的置信度置为 0,从而剔除了冗余检测框。然而在面对车辆重叠场景的时候,两辆车很接近,由于两车辆检测框的 IoU 值较大,经过传统的 NMS处理后,有可能只剩下一个检测框,导致与实际情况不符。对于传统 NMS 在重叠遮挡情况中经常产生错误抑制的情况,DIoU-NMS 引入了检测框之间的中心距离作为额外的检测准则。DIoU-NMS 的得分(Score)更新公式定义如下。
20、si=0,IIoU DIoU(M,Bi)si,IIoU DIoU(M,Bi)DIoU(M,Bi)=2(b,bgt)c2(6)85测控技术 2023 年第 42 卷第 7 期式中:si为类别得分值;M 为得分最高的检测框;Bi为其他检测框;为 NMS 阈值。对于两物体检测框 IoU较大的情况,DIoU-NMS 将考虑两个框之间的中心距离大小,若它们之间的中心距离较大时,将同时保留这两个物体的检测框,从而有效提高检测精度。因此,本文选用 DIoU-NMS 替代 NMS。1 1 3实验设置YOLOv5s 模型实验配置如表 2 所示。表 2YOLOv5s 模型实验配置参数型号版本系统Ubuntu180
21、4CPUAMD yzen 7 4800HGPUNVIDIA GeForce TX 2060CUDA102训练框架PyTorchPython 版本3 8训练参数设置为:输入图像尺寸为 640 像素 640像素;训练过程中,初始学习率为 0 01,终止学习率为0 2;动量参数设为 0 937;衰减系数为 0 0005;Batch-Size 为 8;训练轮数为 200 epoches。1 1 4YOLOv5 训练结果本文采用 YOLOv5 官方给出的预训练网络模型YOLOv5s 进行迁移学习,经 200 epoches 迭代训练后,选取得到的最优模型对测试集进行测试。测试结果如表 3 所示。经过训练
22、后的本文模型精准率达到了 95 5%,召回率为 96 9%,平均精度 AP(0 5)达到 98 1%,满足后期检测需求,选取该模型用于车头时距检测。表 3原 YOLOv5s 模型和本文改进模型经测试的结果对比模型输入尺寸/像素精确度召回率AP(05)YOLOv5s640094409620973本文模型6400955096909811 2DeepSOT 多目标跟踪算法在对车头时距样本进行采集时,需要跟踪每一辆驶入检测区域的车辆。DeepSOT 算法可对检测到的每辆车进行轨迹跟踪,并为其分配特定的 ID 号。DeepSOT 算法带有深度关联特征9,在 SOT 算法的基础上,添加了一个 CNN 模型
23、10。这个 CNN 模型被称为重识别 eID 模型,用来提取由检测器界定目标部分的图像的特征,利用深度学习算法以减少大量 ID切换。1 2 1跟踪处理和状态估计DeepSOT 利用目标检测器的结果初始化跟踪器,每个跟踪器都设置有一个计数器,该计数器在卡尔曼滤波预测期间递增,并在轨迹与测量关联匹配时重置为 0。跟踪器在预定的最大时间内没有关联匹配到合适的检测结果,则认为该目标已离开场景,将其从轨迹集中删除。对于无法从现有轨迹集中关联匹配的每个检测目标,都会分配跟踪器,若这些跟踪器在前 3 帧都能有预测结果匹配检测结果,则认为出现了新的轨迹;若前 3 帧内无法成功关联轨迹,则删除跟踪器。为了防止多
24、目标跟踪中一个目标覆盖多个目标或多个检测器检测一个目标的情况,DeepSOT 算法使用八维状态空间(u,v,h,x,y,h)作为某时刻轨迹在图像坐标系的状态。其中 u、v 分别为目标检测框的中心坐标;、h 分别为检测框的宽高比例和高度;(x,y,h)为前 4 个参数在图像坐标系中的速度信息。算法使用线性观测模型和恒定速度模型的标准卡尔曼滤波器对下一帧目标轨迹进行预测,并将边界坐标(u,v,h)作为目标状态的直接观测值。1 2 2分配问题DeepSOT 通过匈牙利算法匹配预测框和跟踪框,并在此过程中结合运动信息和外观特征两项指标。对于运动信息,算法使用马氏距离度量卡尔曼滤波器的预测结果和检测器结
25、果的匹配程度,马氏距离的计算公式为d(1)(i,j)=(dj yi)TSi1(dj yi)(7)式中:yi为第 i 个跟踪器的目标预测框位置;dj为第 j个检测框位置;Si为检测结果与跟踪结果之间的协方差矩阵。马氏距离通过测量检测距离平均跟踪位置的标准偏差,将状态估计不确定性考虑在内,从而排除了可能性低的关联。当目标运动信息不确定性较低时,马氏距离可以作为一个合适的关联度量,但当相机进行移动或目标被遮挡时,仅仅使用马氏距离无法对目标进行准确的跟踪。因此对于每个检测边框 dj,Deep-SOT 采用了卷积神经网络 eID 模型以引入目标的外观特征 rj,且rj=1。对于每个跟踪轨迹 k 设置其特
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 YOLOv5 Deep 车头 混合 分布 模型 研究 正道
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。