车辆信息识别下的测距模型建立方法研究

上传人:ji****81 文档编号:228080625 上传时间:2021-12-22 格式:DOCX 页数:13 大小:173.83KB
返回 下载 相关 举报
车辆信息识别下的测距模型建立方法研究_第1页
第1页 / 共13页
车辆信息识别下的测距模型建立方法研究_第2页
第2页 / 共13页
车辆信息识别下的测距模型建立方法研究_第3页
第3页 / 共13页
车辆信息识别下的测距模型建立方法研究_第4页
第4页 / 共13页
车辆信息识别下的测距模型建立方法研究_第5页
第5页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《车辆信息识别下的测距模型建立方法研究》由会员分享,可在线阅读,更多相关《车辆信息识别下的测距模型建立方法研究(13页珍藏版)》请在金锄头文库上搜索。

1、 车辆信息识别下的测距模型建立方法研究 赵栓峰 许倩 丁志兵 黄涛摘 要: 为了探测车辆间的相对距离,避免危险车辆由于驾驶不当所引发的交通问题,提出一种深度学习目标识别下的跟驰车辆相对距离测定方法,避免了雷达测距的短距离局限性以及车辆未知性的缺点。该方法采用车载单目摄像机对侧后方车辆进行拍摄,实际物体和成像点之间的转换通过三坐标转换完成,利用深度网络识别目标车辆,获得目标车辆位置以及类别信息,并建立合适的测距模型,得到检测车辆与摄像头之间的相对距离,利用帧差法预测被检测车辆的行驶速度。选择河南省鹤壁市107,342国道进行试验,该路段验证了测距模型的有效性,静态测距下75 m以内相对误差控制在

2、4%,速度误差控制在5%,因此,在检测到危险车辆的情况下,测距模型可以实现相对距离的实时准确性检测。关键词: 车辆识别; 坐标转换; 测距模型; 车辆位置信息; 相对距离探测; 车辆速度预测: TN98?34 文獻标识码: A : 1004?373X(2020)19?0070?05Abstract: In order to detect the relative distance between vehicles and avoid traffic accidents caused by dangerous vehicles due to improper driving, a followi

3、ng vehicle relative distance measuring method based on deep learning target recognition is proposed, which avoids the limitation of short distance radar ranging and the shortcoming that a vehicle cannot get the situation around. In the proposed method, the vehicle?mounted monocular camera is used to

4、 shoot the rear side vehicles, and the transformation between the actual object and the imaging point is achieved by the transformation of three coordinates. The deep network is used to identify the target vehicle, obtain the position and category information of the target vehicle, and establish a s

5、uitable ranging model to obtain the relative distance between the detected vehicle and the camera. The frame difference method is used to predict the driving speed of the detected vehicle. The national highway G107 and G342 within Hebi city in Henan province were selected for the test to verify the

6、effectiveness of the ranging model. The relative error and the speed error of static ranging within 75 m are kept at 4% and 5%, respectively. Therefore, the ranging model can realize real?time accurate detection of relative distance.Keywords: vehicle recognition; coordinate transformation; ranging m

7、odel; vehicle position information; relative distance detection; vehicle velocity prediction0 引 言驾驶员在变道或超车等类似驾驶行为中经常会对驾驶可行性做出误判,导致交通事故频繁发生,仅2017年,由于驾驶员出现感知失误引发交通事故203 049起,死亡人数63 772人,财产损失1高达121 211.3万元。因此,越来越多的研究学者将研究重点集中在车辆安全驾驶辅助系统上2,文献3基于数据融合的思想,通过识别驾驶员人眼特征以及车道线等参数来实现驾驶员在危险状态下的实时预警,文献4建立了基于机器立体视觉

8、的车距测量系统,实现了车辆间的距离检测,但汽车识别误差较大,距离误差在50 m内高达4.5%。文献5将机器视觉与车距测量相结合,根据小孔成像原理建立实际三维图像空间与摄像机二维图像的映射关系,计算出前方车辆的实际距离值,测量距离在70 m内时,误差可达5%。文献6为了降低汽车换道时碰撞事故发生的概率,提出一种基于OpenCV的AEB系统车辆检测和预警研究,实现了单目视觉下的车辆识别。这些研究均为汽车安全驾驶性能的提高做出了突出贡献,目前已有的HLCA系统7融合了雷达和CCD摄像机的信息,实现了40 m左右的中距测量。Mobile eye公司研发的BSD系统8利用单目摄像机及车道线识别系统进行盲

9、区车辆的检测,其探测距离可达50 m。由于多目标识别使系统识别速度降低,实时预警效果不佳,本文提出了一种基于深度学习网络对危险车辆进行识别检测的方法,实现单目标危险物识别,在识别危险车辆的基础上,通过危险车辆的信息建立测距模型,同时实现了危险目标的识别以及距离测定,在75 m以内距离相对误差可控制在4%内,为安全驾驶辅助系统提供了技术实现依据。1 危险车辆识别车辆类别的识别可以实现危险驾驶的精准预警,本文采用车载摄像机对后方车辆进行实时拍摄,摄像机安装在后视镜下方一定高度处,对车辆的预测采用如图1所示的深度学习网络,此网络是一个全卷积网络,网络中采用了53个卷积层,借鉴了残差网络(Residu

10、al Network)的做法,在一些层之间设置了快捷链路9(Shortcut Connections),大量使用残差的跳层连接,形成更深的网络层次以及多尺度检测。网络对输入为4164163的图像进行特征提取,得到SS大小的特征图,然后将输入图像分成SS个网格单元,采样使用步长为2的卷积来进行降采样。每一个网络结构进行3次目标检测,在检测中使用sigmoid 函數进行中心坐标预测,如果ground truth中某个检测目标的中心坐标落在某个网格单元中10,那么就由该网格单元预测该目标,再预测出B个检测边界框以及每个框的置信度。置信度表征了检测边界框对其检测物体的置信度11,公式如下:式中:C为边

11、界框的置信度,由当前预测中边界框含有目标的置信物体Pt与预测目标的准确性Iou所决定,目标检测准确性的判别方法如式(2)所示,Bgt为训练样本自制标签的标准框,Bdt为检测到物体的回归边界框,因此,目标检测的准确性取决于标准框与预测边界框的重合度,即预测框中检测物体的存在概率。检测结果可以获得检测物体的类别、中心坐标值以及预测边界框的坐标。在训练过程中,采用二元交叉熵损失进行分类预测。2 三坐标转换为了完成车辆间实际距离的预测,需要完成摄像机坐标、平面坐标以及世界坐标之间的转换12,才能得到图像中目标点的像素点距离。1) 图像坐标(x,y)转换为像素坐标(u,v)水平坐标轴u与垂直于u轴坐标轴

12、的v轴相交于点O0,共同构成了图像坐标系,以左上角O0点作为原点,其度量单位为像素。在(u,v)图像坐标系中通过建立坐标系(x,y)来解决像素不能用实际的物理单位表述的问题,x,y轴分别与u,v轴保持平行,因此,xO1y和uO0v坐标系中的参数点能够相互表示,其坐标系如图2所示。假定xO1y坐标系中x轴方向上每个像素表示实际的物理尺寸为dx,y轴方向上为dy,则xO1y坐标系与uO0v坐标系的转化关系如下:将式(3)用矩阵表示并使用齐次坐标变换后可得:2) 摄像机坐标(Xc,Yc,Zc)到平面坐标(x,y)的转换在理想状态下,空间任意一点P可以采用小孔成像模型13来描述,即采用OP交于图像平面

13、的点p来代表P的投影,该关系采用比例等式来描述:把坐标点进行齐次化,使用矩阵将式(5)表达出来为:3) 世界坐标转化为摄像机坐标通过平移和旋转世界坐标系能够获得摄像机坐标系14,假设图像平面中有一点(Xc,Yc,Zc)在实际空间中的坐标为(XW,YW,ZW)T,经过齐次化后并实施转换得到两坐标系的转换关系为:式中:三阶正交矩阵R为旋转矩阵;三阶矩阵t为平移矩阵;OT为三阶零矩阵。综上所述,世界坐标转换到像素坐标的关系为:式中:ax=fdx,ay=fdy分别表示两坐标轴上的单位尺度参数;M是一个34的投影矩阵;ax,ay,u0,v0,M1由摄像机的内部参数决定;M2为摄像机的外部参数矩阵,由旋转

14、矩阵11和平移矩阵组成。3 相对位置测距模型危险车辆间速度以及距离测定的基础在于深度学习对于侧后方驾驶车辆的准确预测以及回归,只有在回归出后方车辆的目标矩形,标注出矩形边框中心点的基础上,才能建立合适的测速测距模型,如图3所示,P1,P2点为回归车辆所需要的中界点参数。如图4所示,相机光心为O,相机安装在距离地面高度为h的位置,其中h为90 cm,即光心距离地面的距离OD为90 cm。标注图3中P1,P2点的位置,即跟驰车辆的车身高度,利用P1,P2表示P1,P2点在摄像机成像平面上的成像点,光轴相交成像平面于点P,相交于实体平面于点P,则OP为相机焦距Fy。前导车与跟驰车辆相对距离表示为d,

15、以O为原点作直线垂直地面于点D,以P1为原点,作直线垂直于以O为原点的DP1水平线于点F;作平行于成像平面的直线相交于OF延长线于点G,延长线段OP2,OP交线段P1G于点C,B。车载摄像机的安装俯仰角度为,其中为5,光轴与水平面夹角为。由距离测量公式可知,只需得到目标车辆参数点的像素坐标,就可以得到行驶车辆间的相对距离。4 相对位置测速模型测速是检测运动目标在单位时间内的位移14。测速算法通过后视镜下方安装的摄像机以一定帧速采集侧后方车辆视频图像,经过深度预警网络预测输出目标边界框中心坐标15,再利用坐标转换方法将车辆在二维图像中的像素坐标转换到三维世界坐标系中,利用帧差法对图像不同帧之间的距离作差,计算出S,进而求出v1,v2,取二者均值作为相对速度RS。测速算法流程如图5所示。具体的行车距离计算、时间间隔计算、侧后方运动车速计算如下:1) 行车距离计算采集一段含有N帧图像的本车侧后方车辆运动视频,假设行驶车辆在图像坐标系中的位置为(u1,v1)

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 调研报告

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号