-
随着信息技术的进步,智慧城市、智能交通等概念逐步推进实施,基于视频图像的移动执法自动检测违规车辆行为的实际需求越来越多。文献[1]对具有移动执法功能的停车场管理系统进行了研究。该领域已有的一些应用系统,大部分是由执法人员与系统协同完成任务,自动、智能化水平较低。移动执法违规车辆自动检测与自动驾驶相比存在共同之处,如通过视频图像或其他传感器,对道路环境、周围车辆、人员进行理解、感知。主要技术内容基本一致,如车道线检测、车辆检测及连续跟踪等。但是二者应用目的存在极大差异。自动驾驶对传感器数据进行理解分析,是用于车辆安全、自动做出驾驶选择;而移动执法的目的是通过对道路和周围环境目标的感知分析,检测出车辆违规行为。本文参考自动驾驶、ADAS(advanced driver assistance systems)先进辅助驾驶系统中相关研究,构建了一个适合车载移动智能执法应用的模型及关键算法实现并进行相关测试。文献[2]基于GPS实时位置信号及交通道路地理空间先验信息进行路面检测,但没有精确到车道尺度。自动驾驶领域和ADAS领域,基于视频图像的车道线、车辆目标检测及跟踪是一个研究热点。文献[3-4]对此问题有深入研究。技术方法的发展趋势是从传统的特征提取加分类器到采用深度学习进行相关分析。但针对违规车辆车载移动执法应用环境特点进行系统技术的研究相关文献报道不多。该方向具有一定的研究和应用价值。
-
关键技术包括:1)基于视频图像的车道线实时检测;2)成像坐标系统与真实道路世界坐标系统变换及几何量算;3)车辆目标检测及跟踪。
-
目前车道线检测方法可分为基于特征和模型两类方法。本文综合两种方法,根据前文模型中获取的当前道路先验知识,基于先验知识构建道路模型,与图像特征协同进行车道线检测。车道线视觉检测算法主要包括图像处理、边缘线检测与提取、基于模型的车道边缘检测模块组成。算法流程如图 4所示。采用KITI数据集[5]检测效果如图 5所示。
1) 车道图像预处理。为在消除噪声的同时保护图像中边缘特征,采用中值滤波对图像进行处理,即:
$$ f({m_0}, {n_0}) = {\rm{median}}\{ f(m, n)\} $$ (1) 式中,像素点m, n属于中值滤波窗口A中元素。
2) 基于Canny算子的边缘提取。Canny边缘检测算法能有效地抑制噪声,较精确确定边缘位置,找出车道潜在位置。
3) 基于逆透视变换及车道GPS位置的车道线范围搜索。
4) 车道模型的建立。采用文献[3]中提出直线模型的近端视场,以及基于曲线模型的远端视场车道线检测[6]。近端视场内采用Hough变换提取的得票最多的参数,分别得到左右两侧车道线参数。双曲线模型为:
$$ u = k/(v - h) + b(v - h) + vp $$ (2) 式中,k、b、vp为弯道参数。
-
坐标系变换实质上是将成像平面的像素点同世界坐标系中实际道路位置点建立关联。转换分为:1)从世界坐标系转为相机坐标系,这一步是三维点到三维点的转换,取决于车载拍摄相机的姿态参数;2)从相机坐标系转为成像平面坐标系。这一步是三维到二维的转换,取决与相机内部参数。相机内部参数一般是固定。变换为:
$$ \kappa {p_i} = K\left[ \begin{array}{l} R{\rm{ }}t\\ 0{\rm{ }}1 \end{array} \right]\left[ \begin{array}{c} {r_{ix}}\\ {r_{iy}}\\ {r_{iz}}\\ 1 \end{array} \right] $$ (3) 式中,R为相机外参,确定了相机在某个三维空间中的朝向;t描述相机坐标系和世界坐标系之间平移变换。
几何量算具体功能是将成像空间中执法车辆与目标车辆的距离、角度关系转换到真实道路世界坐标系中,协同电子地图中路面宽度、车道数量、车道宽度等信息,基于已确定当前执法车辆车道位置,从而确定目标车辆所在车道。进而判定其是否存在应急车道行驶的行为和其他违规行为。
-
车辆目标检测传统方法是采用HOG特征结合线性SVM分类器进行目标检测[7]。其特点是准确率较高,不足之处是处理速度慢,较难达到车辆实时检测要求。近来基于深度学习的目标检测领域进展很快。其中基于深度学习模型Yolo[8](you only look once)目标检测方法,具有检测速度较快,可达到目标实时检测的优点。其不足在于对场景内尺度较小目标检测效果较差。但违规车辆需进行车牌识别,故对检测车辆目标大小有限制。经实际场景测试,本文实际应用场景中,Yolo难以检测尺度较小目标,可忽略。Yolo方法原理是将图像划分为m×m网格。对于每个网格,预测边框是目标的置信度以及每个边框区域在多个类别上的概率。根据阈值去除可能性较低的目标窗口,基于NMS算法去除冗余窗口,完成检测过程。基于ImageNet中车辆图片数据和自主收集的车辆图片数据进行检测模型训练,使用镜像、随机光照变化等方法对样本进行增强。只针对车辆这一种类别进行检测。为使检测性能尽可能更优,修改Yolo相关配置,使模型只检测车辆一个类别。采用小批量梯度下降方法和冲量,使收敛过程加快。可对各角度车辆目标进行较好检测,测试结果如图 6所示。相较于原始Yolo版本,车辆二分类训练后的Yolo检测模型在查准率、查全率指标上测试结果更优。
采用基于检测的多目标跟踪框架,参考文献[9]中的方法对多个车辆目标进行跟踪。利用上文训练的Yolo模型对视频的每帧图像都进行车辆目标检测,标记目标检测位置。本文采用视频帧之间车辆目标运动匹配度和外观作为跟踪过程中目标之间关联的判断依据。利用当前帧车辆目标预测位置与检测位置的重合度IOU指标进行关联度的刻画;利用颜色直方图进行外观建模。跟踪位置的预测基于Kalman滤波完成。基于Hungary匈牙利算法进行全局分配优化。由于车辆目标移动过程中,一般受车道线约束以及车辆目标非刚性的特点。该跟踪算法在速度较快的情况下,在仅使用颜色直方图HSV特征作为目标外观信息和位置信息的情况下,取得了较好的跟踪效果。跟踪算法如图 7所示。
-
本文基于GPS位置信号及道路地理信息,在与车道线视觉检测协同情况下,进行路面车道线分割及当前执法车辆位置估计。其目的是增强基于视觉的违规区域动态分割,本文的实验设置违规区域是应急车道区域;复杂路面条件下路面检测、车道检测难以依靠视觉检测完成,在此特殊情况下,采用GPS位置信息进行路面探测及违规行车区域检测。如图 8所示,为各种条件下单独基于视觉检测、地理信息与视觉检测系统下的路面检测、车道线分割结果。
本文采用KITTI自动驾驶测试数据集合,包含相机标定数据、车辆行驶GPS位置数据。
车辆目标检测,采用Faster R-CNN方法[11-12]与本文方法进行对比,结果如表 1所示。测试视频采用自制视频,拍摄环境为高速道路环境。
表 1 车辆目标检测测试结果
算法 查准率/% 查全率/% 每秒处理帧数/f·s-1 Faster R-CNN 80.8 76.5 3 本文方法 82.1 72.4 58 基于检测的车辆目标跟踪结果如图 9所示。采用复杂天气条件下视频进行测试,车辆跟踪及违规区域停车检测效果如图 9所示。自制视频拍摄于成都双流机场高速,视频中应急车道违规行驶共有8辆汽车,均完全检测。
Research on Automated Detection Model and Key Technology in Traffic Enforcement on Mobile System
-
摘要: 提出了一个面向高速道路交通车辆违规行为移动执法智能检测模型。系统模型分为车道线检测、车辆检测与跟踪、逆透视变换及几何量算、面向车道定位的地图精细匹配等4个子模块。该系统模型算法在实际高速公路环境中进行了车辆违规行为检测,以及车道线检测、车辆目标及跟踪等专项测试以表征其对车辆违规行为的检测能力。测试结果表明,该系统模型具备在一定的复杂交通环境中车辆违规行为辨识能力。相关专项测试表明,该模型可以快速及准确地检测记录违规车辆。Abstract: An intelligent detection model for mobile traffic enforcement is presented to detect the vehicle violations on highways. The system model is divided into four sub-modules including the lane detection, vehicle detection and tracking, inverse perspective transformation and geometric measurement, and map matching for lane locating. The system model algorithm is tested in highway road environment, as well as special tests such as lane line detection, vehicle target and tracking to characterize its performance to detect vehicle violations. The test results show that the system model has certain ability to recognize vehicle violations in complex traffic environment. At the same time, the relevant special tests show that the model can detect and record illegal vehicles quickly and accurately.
-
表 1 车辆目标检测测试结果
算法 查准率/% 查全率/% 每秒处理帧数/f·s-1 Faster R-CNN 80.8 76.5 3 本文方法 82.1 72.4 58 -
[1] 闫浩. 具有移动执法功能的违法停车管理系统的设计和实现[D]. 天津: 天津工业大学, 2012. YAN Hao. Design and implementation of illegal parking management system with mobile law enforcement function[D]. Tianjin: Tianjin Polytechnic University, 2012. [2] ÁLVAREZ J M, LÓPEZ A M, GEVERS T, et al. Combining priors, appearance, and context for road detection[J]. IEEE Transactions on Intelligent Transportation Systems, 2014, 15(3):1168-1178. doi: 10.1109/TITS.2013.2295427 [3] 范延军. 基于机器视觉的先进辅助驾驶系统关键技术研究[D]. 南京: 东南大学, 2016. FAN Yan-jun. Research on key technologies of advanced assisted driving system based on machine vision[D]. Nanjing: Southeast University, 2016. [4] BOJARSKI M, DEL TESTA D, DWORAKOWSKI D, et al. End to end lear-ning for self-driving cars[EB/OL]. [2017-04-24]. http://arxiv.org/abs/1604.07316. [5] GEIGER A, LENZ P, URTASUN R. Are we ready for autonomous driving? the KITTI vision benchmark suite[C]//IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Providence, USA: IEEE, 2012. [6] KLUGE K. Extracting road curvature and orientation from image edge points without perceptual grouping into features[C]//Proceedings of the Intelligent Vehicles'94 Symposium. New York, USA: IEEE Press, 1994: 109-114. [7] SATZODA R K, TRIVEDI M M. Efficient lane and vehicle detection with integrated synergies[C]//IEEE Conference on Computer Vision and Pattern Recognition Workshops. New York, USA: IEEE, 2014: 708-713. [8] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016. [9] WOJKE N, BEWLEY A, PAULUS D. Simple online and realtime tracking with a deep association metric[C]//2017 IEEE International Conference on Image Processing. Bejing: IEEE, 2017. [10] YU F, LI W, LI Q, et al. Poi: Multiple object tracking with high performance detection and appearance feature[C]//European Conference on Computer Vision. New Work, USA: Springer International Publishing, 2016: 36-42 [11] REN S, HE K, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6):1137-1149.