基于无人机视频图像的交通参数采集系统
技术领域
本发明涉及一种较大范围,具体是基于无人机视频图像的交通参数采集系统。
背景技术
随着我国高速公路的不断发展,目前已形成了以高速公路为骨架、国省干线公路为主体、县乡村公路为基础的公路交通网络。在公路交通路网快速形成的同时,我国机动车数量也在迅猛增加,人员和货物的流动也愈发频繁,人们对公路交通的需求与日俱增,给我国公路交通带来了极大的挑战。我国综合交通运输效率较低、成本较高,有数据表明中国物流费用占GDP比例为18%,而美国等发达国家是8-9%,中国是美国的两倍,低效的交通运输已成为制约我国经济发展主要因素。因此,加快建立健全公路网运行监测、协调管理和应急处置平台,保障国家高速公路和重点干线公路以及重要站点的稳定运行,提高公路网安全性能和服务水平以及应急处置能力,为人民群众提供便捷高效的人性化和高品质服务,成为未来交通发展的迫切要求。
智能交通系统将先进的无人机技术、信息技术、数据通讯传输技术、电子传感技术、控制技术及计算机技术等有效运用于公路交通管理中,是满足应对上述应用需求的最好解决方案,是未来智能交通的发展方向。系统中,交通参数的智能检测是实现智能交通的重要环节。交通参量智能监测与采集能够及时获得公路交通的参数信息,通过对数据的智能化分析,为道路规划和交通诱导提供基础和依据。
智能交通是交通运输信息化发展的战略目标,信息化是实现智能交通的重要手段,涵盖了人、车辆、道路等多维度信息提取,快速、准确地提取交通参数信息是智能交通系统正常运行的前提和保障。传统的交通参数提取主要用到雷达、声波、激光、地感线圈等传感器设备,由于受限于设备安装、维护以及费效比等因素,传统的参数提取设备难以大范围普及。当前无人机视频巡检在交通运输领域已广泛应用,这不仅为交管部门了解道路状况提供了便捷,也为基于监控视频的交通参数提取提供了有效途径。
发明内容
本发明的目的在于提供基于无人机视频图像的交通参数采集系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
基于无人机视频图像的交通参数采集系统,包括:
安装有视频采集设备的无人机,用于对检测区进行视频录制以采集视频画面,所述视频画面包括多帧图像;
分析服务器,用于按设定间隔值抽取视频画面中的指定帧画面,并采用训练完成的车辆检测神经网络模型对各帧画面进行车辆识别与计算、统计,以获取交通参数信息;
储存服务器,用于备份所述视频画面;
参数查看端,用于接收并查看交通参数信息;
所述无人机与分析服务器、储存服务器无线通信连接,所述分析服务器、储存服务器与参数查看端通讯连接。
作为本发明进一步的方案:所述车辆检测神经网络模型为yolo神经网络模型。
作为本发明进一步的方案:所述车辆检测神经网络模型的训练过程包括:
获取车辆图像并建立样本集;
对每一张图像中车辆的位置和车型类别信息进行标注;
采用yolo算法基于所标注的车辆的位置信息和车型类别信息对所述样本集中的车辆图片进行训练,得到车辆检测神经网络模型的各个模型参数。
作为本发明进一步的方案:所述车辆检测神经网络模型采用K-means聚类算法在样本集中自动生成锚盒。
作为本发明进一步的方案:所述车型类别包括:
A1:大型客车(大型载客汽车);
A2:牵引车(重型中型全挂,半挂汽车);
A3:城市公交车(荷载10人以上的城市公交车);
B1:中型客车(中型载客汽车,含载10人以上19人以下的城市公交车);
B2:大型货车(重型中型载货汽车,大重中型专项作业车);
C1:小型汽车(小型微型载客汽车以及轻型微型载货汽车:轻小微型专项作业车);
C2:小型自动挡汽车(小型微型自动挡载客汽车以及轻型微型自动挡载货汽车)。
作为本发明进一步的方案:所述交通参数信息包括:
车型:通过道路的机动车类型;
流量:在规定的时间段内,通过道路某断面的机动车的数量;
车速:机动车通过道路某断面的车速,单位为公里/小时;
车头时距:在同一车道上行驶的车辆队列中,两连续车辆车头端部通过某一断面的时间间隔,单位为秒;
跟车百分比:指车头时距小于等于指定时间的车辆所占全部车辆的百分比;
车头间距:指同一车道上行驶的连续车辆中,前后两车车头之间的距离,单位为米;
时间占有率:在某断面上,车辆通过时间累计值与观测时间的比值,用百分率表示。
作为本发明进一步的方案:所述交通参数的获取步骤包括:
S01:选定检测区并放飞无人机,使用无入机上安装的视频采集设备对检测区进行视频录制,以采集视频画面;
S02:按设定间隔值抽取视频画面中的一帧画面,采用训练完成的车辆检测神经网络模型对该帧画面进行检测,以识别该帧画面中的车辆,并获得车辆位置与车型;
S03:将该帧画面中的车辆位置和车型信息与上一帧画面中的车辆位置和车型信息进行比对,判断是否为同一车辆;
若不为同一车辆,则新建一个车辆行驶轨迹并按车型对流量进行统计;
若为同一车辆,则更新该车辆的轨迹,并根据两帧画面中的车辆位置变化与两帧画面的间隔时间计算出车速;
S04:根据车速、车辆轨迹、流量计算出车头时距、跟车百分比、车头间距、时间占有率。
S05:重复S02-S04。
作为本发明进一步的方案:所述S03中,计算车速前需对车辆空间坐标投影进行矫正,所述校正采用相机成像原理。
作为本发明再进一步的方案:所述参数查看端包括PC端、移动端与电视墙中的一种或组合。
与现有技术相比,本发明的有益效果是:
1、本发明通过设置安装有视频采集设备的无人机,能够充分利用无人机的便携性与高自由度,实现在不同时段对不同地点的道路交通状态进行实时监控,并利用分析服务器,按设定间隔值抽取视频画面中的指定帧画面,并采用训练完成的车辆检测神经网络模型对各帧画面进行车辆识别与计算、统计,以获取交通参数信息,实现基于后台的交通参数采集,提高路网运行监测管理效率,为路网运行大数据分析应用提供可靠支持。
2、本发明通过采用基于yolo算法的神经网络模型,对视频画面中的车辆信息进行识别,并采取K-means聚类算法在训练集中自动生成锚盒,在提高网络模型定位精度的同时也加快了检测速度,同时通过使用间隔抽帧的方法,相比于现有常规手段中逐帧分析的方法,在保证了交通参数有效获取的同时,能够有效的降低对设备硬件的要求,继而节约系统硬件成本。
附图说明
图1为基于无人机视频图像的交通参数采集系统的结构框图。
图2为基于无人机视频图像的交通参数采集系统中分析服务器的工作流程图。
图3为基于无人机视频图像的交通参数采集系统的参数采集流程图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下将结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。
需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有说明书特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
请参阅图1~3,本发明实施例中,基于无人机视频图像的交通参数采集系统,包括:
安装有视频采集设备的无人机,用于对检测区进行视频录制以采集视频画面,所述视频画面包括多帧图像;
分析服务器,用于按设定间隔值抽取视频画面中的指定帧画面,并采用训练完成的车辆检测神经网络模型对各帧画面进行车辆识别与计算、统计,以获取交通参数信息;
储存服务器,用于备份所述视频画面;
参数查看端,用于接收并查看交通参数信息;
所述无人机与分析服务器、储存服务器无线通信连接,所述分析服务器、储存服务器与参数查看端通讯连接。
所述车辆检测神经网络模型为yolo神经网络模型。
所述车辆检测神经网络模型的训练过程包括:
获取车辆图像并建立样本集;
对每一张图像中车辆的位置和车型类别信息进行标注;
采用yolo算法基于所标注的车辆的位置信息和车型类别信息对所述样本集中的车辆图片进行训练,得到车辆检测神经网络模型的各个模型参数。
所述车辆检测神经网络模型采用K-means聚类算法在样本集中自动生成锚盒,其具体方法为:
第一步:使用矩形框对样本集中的每一张图像中车辆的位置和车型类别信息进行标注框选,其中,框选信息数量可为两个或多个;
第二步:对上一步中所有的矩形框宽高数据进行计算,计算方法:长=矩形框右下角横坐标-矩形框左上角横坐标、宽=矩形框右下角纵坐标-矩形框左上角纵坐标;
第三步:初始化n个anchor box(锚盒),通过在所有的矩形框中随机选取n个值作为n个anchor boxes(锚盒)的初始值;
第四步:计算每个bounding box(锚盒)与每个矩形框的iou值,其中iou值为yolo算法中的判定值。
所述车型类别包括:
A1:大型客车(大型载客汽车);
A2:牵引车(重型中型全挂,半挂汽车);
A3:城市公交车(荷载10人以上的城市公交车);
B1:中型客车(中型载客汽车,含载10人以上19人以下的城市公交车);
B2:大型货车(重型中型载货汽车,大重中型专项作业车);
C1:小型汽车(小型微型载客汽车以及轻型微型载货汽车:轻小微型专项作业车);
C2:小型自动挡汽车(小型微型自动挡载客汽车以及轻型微型自动挡载货汽车);
通过采用机动车型一级分类,可以更好的对车型类别进行分类统计。
所述交通参数信息包括:
车型:通过道路的机动车类型;
流量:在规定的时间段内,通过道路某断面的机动车的数量;
车速:机动车通过道路某断面的车速,单位为公里/小时;
车头时距:在同一车道上行驶的车辆队列中,两连续车辆车头端部通过某一断面的时间间隔,单位为秒;
跟车百分比:指车头时距小于等于指定时间的车辆所占全部车辆的百分比;
车头间距:指同一车道上行驶的连续车辆中,前后两车车头之间的距离,单位为米;
时间占有率:在某断面上,车辆通过时间累计值与观测时间的比值,用百分率表示。
所述交通参数的获取步骤包括:
S01:选定检测区并放飞无人机,使用无人机上安装的视频采集设备对检测区进行视频录制,以采集视频画面;
S02:按设定间隔值抽取视频画面中的一帧画面,采用训练完成的车辆检测神经网络模型对该帧画面进行检测,以识别该帧画面中的车辆,并获得车辆位置与车型;具体的,按设定间隔值抽取视频画面中的一帧画面,以30fps、1080K视频画面为例,每间隔5帧抽取一帧画面,即每分钟抽取该视频5帧画面,通过使用间隔抽帧的方法,相比于现有常规手段中逐帧分析的方法,在保证了交通参数有效获取的同时,能够有效的降低对设备硬件的要求,继而节约系统硬件成本;
S03:将该帧画面中的车辆位置和车型信息与上一帧画面中的车辆位置和车型信息进行比对,判断是否为同一车辆;
若不为同一车辆,则新建一个车辆行驶轨迹并按车型对流量进行统计;
若为同一车辆,则更新该车辆的轨迹,并根据两帧画面中的车辆位置变化与两帧画面的间隔时间计算出车速;
S04:根据车速、车辆轨迹、流量计算出车头时距、跟车百分比、车头间距、时间占有率。
S05:重复S02-S04。
所述S03中,计算车速前需对车辆空间坐标投影进行矫正,所述校正采用相机成像原理。
所述参数查看端包括PC端、移动端与电视墙中的一种或组合。
本发明通过设置安装有视频采集设备的无人机,能够充分利用无人机的便携性与高自由度,实现在不同时段对不同地点的道路交通状态进行实时监控,并利用分析服务器,按设定间隔值抽取视频画面中的指定帧画面,并采用训练完成的车辆检测神经网络模型对各帧画面进行车辆识别与计算、统计,以获取交通参数信息,实现基于后台的交通参数采集,提高路网运行监测管理效率,为路网运行大数据分析应用提供可靠支持。
本发明通过采用基于yolo算法的神经网络模型,对视频画面中的车辆信息进行识别,并采取K-means聚类算法在训练集中自动生成锚盒,在提高网络模型定位精度的同时也加快了检测速度,同时通过使用间隔抽帧的方法,相比于现有常规手段中逐帧分析的方法,在保证了交通参数有效获取的同时,能够有效的降低对设备硬件的要求,继而节约系统硬件成本。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。