基于OpenCV和Halcon的交通冲突视频自动检测及数据处理

萌到你眼炸
676次浏览
2020年07月30日 16:08
最佳经验
本文由作者推荐

巴西圣保罗-中南财经大学武汉学院


第38卷第2期
2010年2月
同济大学学报(自然科学版)
JOUR NALOFTONGJIUNIVERSITY(NATURALSCIENCE)
Vol.38No. 2
Feb.2010
文章编号:0253-374X(2010)02-0238-07DO I:.0253-374x.2010.02.015
基于OpenCV和Halcon的交通冲突视频
自动检测及数据处理
王俊骅
1
,张方方
2
,张兰芳
1
(1.同济大学道路与交通工程教育部重点实验室,上海201408;2.上海市城市建设设计研究 院,上海200125)
摘要:运用OpenCV和Halcon图形开发工具,以VC++6.0为基础开发平台,采用背景消减法和基于区域特征的跟踪算
法实现视频图像中车辆运动目标的提取与 跟踪,并将数据信
息实时保存至文件中.在视频数据信息中处理提取冲突车辆
的运动轨迹、速度 、加速度等微观交通参数,实现交通冲突微
观参数采集.综合减速度、角速度、速度和距离等指标建立多
参数交通冲突判断方法,根据车辆的轨迹、速度和加速度曲
线对车辆的运行特征做出分析,初步 实现简单交通条件下机
动车交通冲突视频自动检测.
关键词:交通冲突;视频检测;背景减法; 跟踪算法
中图分类号:U491 文献标识码:A
交通冲突技术是一种非事故统计交通安全 评价
方法,可对交通运营系统的许多方面如地点安全度、
安全改善措施的效果等进行快速评价, 并可提高交
通安全评价的信度和效度
[1]
.目前,交通冲突技术被
公认为是 道路交通安全研究的重要方法之一
[2-3]
.
然而,交通冲突观测方式的好坏直接关 系到交通冲
突技术应用的成败.传统冲突观测法主要包括人工
现场观测法和录像观测法.前者早 期曾被西方国家
广泛采用,对推动交通冲突技术的应用起到了一定
的作用.后者近年用得较多, 它在一定程度上克服了
人工现场观测的不足,但未能从根本上解决数据精
度、观测统计效率和实 时性等问题.观测问题已成为
交通冲突技术应用的主要瓶颈.随着视频处理技术
在交通管理、道 路安全、智能交通(ITS)的广泛应用,
使通过视频自动检测获取车型种类、运动速度、加速
度、运动轨迹、车头间距等微观交通冲突数据成为可
能,并可成为推动交通冲突技术发展的有效工具.< br>HalconandOpenCV-BasedTrafficAutomatic
Confli ctingDetectingMethodand
DataTransaction
WANG Junhua,ZHANGFangfang,ZHANGLanfang
121
(orato ryofRoadandTrafficEngineeringoftheMinistryof
Ed ucation,TongjiUniversity,Shanghai201804,China;aiUrbanPlanningandDesignResearchInstitute,Shanghai 200125,
China)
Abstract:Basedongraphicdevelo pingtoolsofHalconand
OpenCVonVC++6.0platform,ba ckgroundsubtractionand
region-basedtrackingalgo rithmsareusedtorealizepickingup
andtracingthemo vingvehicletarget,andthedataaresaved
ctingthevi deodatainformation,the
track,velocityandtheacce lerationofconflictingvehicleare
calculatedrespe ctively,andmultiparameter-basedtraffic
evideo-b asedvehicle
conflictautomaticallydetectingsyste mforsimpletraffic
environmentisinitiallydevelop ed.
Keywords:trafficconflict;video- detecting;background
1 交通冲突视频检测系统设计
本文利用图像处理 技术开发基于视频的交通冲
突检测系统(见图1).考虑到系统实时性要求和图像
处理算法的运 行时间、执行效率,及计算机软、硬件
的配置,总的设计思路是先对视频图像进行逐帧处
理,实 现运动目标的提取与跟踪,并将数据信息按时
间先后顺序实时保存至文件,再对文件数据进行批
量处理,包括坐标转换、速度和加速度的提取,最后
综合这些信息完成交通状态的分析和交通过程的重< br>现.故运动目标的提取与跟踪是整个系统的基础,也
subtraction;tracinga lgorithm
收稿日期:2008-11-03
基金项目:十一五0国家科技支撑计划资助 项目(2007BAK35B03)
作者简介:王俊骅(1979)),男,讲师,工学博士,主要研究 方向为道路安全、道路规划与设计.E-mail:benwjh@
张兰芳(1972)),女,副教授 ,工学博士,主要研究方向为道路安全、道路规划与设计.E-mail:zlf2276@

第2期王俊骅,等:基于OpenCV和Halcon的交通冲突视频自动检测及数据处理
< br>239
是系统成功与否的关键.车辆行为解释模块建立在
目标提取和目标跟踪的基础之上 ,通过对获得的微
观交通数据如运动轨迹、速度、加速度等进行处理和
分析,确定运动目标的运 动特性和冲突是否发生,并
采用自然语言加以描述,得出相应的推论.
由于现实中的交通场景比 较复杂,尤其是室外
环境,经常有摇动的树、飘动的云等,完全静止的背
景是根本不存在的.例 如,在某帧中一个像素可能表
示天空,但在另一帧中则可能表示树叶,而在其他帧
中则又可能表 示树枝.每一种状态下的像素亮度值
或颜色值是不同的,所以可以考虑对这些多模态情
形使用多 个高斯模型来混合建模.混合高斯模型法
是将每个像素按照多个高斯分布混合建模,以同时
处理 多种背景变化.该模型的参数可以自适应更新,
不像非参数模型需要缓存视频.使用OpenCV中的< br>相关函数可以方便地实现这一功能:
bg_model=cvCreateGaussianBG Model
(pBkIm-g,0);M创建初始背景模型
pFrame=cvQueryFr ame(pCapture)M捕捉视
频帧
cvCvtColor(pFrame,pBkIm g,CV_BGR2GRA-
Y);M将彩色图像转化为灰度图像
图1 交通冲突视频检测系统构成
Fig.1 Frameofvideo-basedtrafficcon flict
detectingsystem
kk=icvUpdateGaussianBG Model(pBkImg,bg_
model);M更新背景模型
cvCopy(bg_mo del->background,pBkImg,
0);M分离出背景图像
cvCopy(b g_model->foreground,pFrImg,0);
M分离出前景图像
cvSh owImage(BackgroundImage0,
pBkImg);M显示背景图像
cv ShowImage(ForegroundImage0,pFrImg);
M显示前景图像
利用上述函数对浦东大道-巨野路丁字形交叉
口交通视频图像进行背景建模,效果十分良好,如图
2所示.与帧平均法相比,混合高斯模型可利用相对
较少的信息获得质量良好的背景.如图2和图3比
较所示,当视频文件播放到第380帧时,由混合高斯
模型获得的交叉口背景图像就已趋于稳定 ,而平均
法却要播放到第1500帧左右才基本摆脱初始帧的
影响.但混合高斯模型运算量大, 在处理单帧图片时
需要的时间更长,尤其当图像分辨率较高时这种方
法的实时性难以满足要求.
2.2 运动车辆前景提取
背景图像生成后,需对当前帧中的运动目标进
行分割.由于 Halcon在图像分割与形态学处理方面
的强大功能,可用其相关的图像处理函数.为提高处
理速度,先用zoom_image_factor对图像进行降低分
目前专门针对图像处理的开发 工具有多种,本
文研究采用美国Intel公司开发的OpenCV和德国
MVTec公司开发 的Halcon,这两套工具均以图像
为研究对象,集成最新的实用算法,开发并形成了成
百上 千的图像处理函数,用户只需了解其功能和用
法即可调用,必要时这二者还可以相互结合使用.本
文运动目标检测与跟踪均利用Halcon提供的相关
函数实现,高斯混合模型建立背景图像利用OpenCV相关函数实现,开发平台为VC++6.0.
2 运动目标的提取
2.1 混 合高斯模型生成背景
在目标检测前,先应对视频图像进行预处理.主
要是对输入的视频图像进行 简单的时间或空间滤
波,包括图像的平滑、增强、恢复等,目的在于抑制不
需要的变形、噪声或 者增强某些有利于后续处理的
图像特征,改善图像质量,为后续目标识别与跟踪提
供方便.在某 些特殊情况下还需改变帧分辨率大小
和帧率,或对多摄像机获得的同步视频录像进行图
像融合等 .平滑滤波就是一种典型的预处理方式,常
用方法有邻域平均法、中值滤波法和高斯滤波法.

< p>

240
同济大学学报(自然科学版)第38卷
辨率处理,再在缩 小图像上用函数run_bg_esti估计
背景和提取前景,此时的前景可能包含诸多噪声,可
用select_shape、select_gray、union1、connection等
函 数进行噪声去除,并最终分割出前景目标.
图2 第380帧时混合高斯模型生成的背景
Fig.2 Backgroundbuiltthroughc ombinedGaussmodelonframe380
图3 帧平均法第1573帧时两种方法生成的背景
Fig.3 Backgroundbuiltthrou ghframeaveragemodelonframe1573
原始视频帧图像如图4所示,利 用高斯混合模
型对视频录像生成背景如图5所示,根据背景减法
的相关原理,生成前景图像如图 6所示,但此时的前
景图像中包含大量的噪声,众多非运动目标区域由
于某种原因也被当作前景 检测出来,如树叶扰动、垃
圾袋随风飘动等,因此需要予以滤除.通过对所有的
区域对象进行面 积选择、灰度选择、形态学处理等,
得到结果如图7所示,将经过滤除后的区域在原视
频图像中 用彩色线条标出,这样就提取出了当前帧
的运动目标,如图8所示.
3 运动车辆的跟踪
不同的图像跟踪算法利用不同的图像信息以及
先验知识,具体应用中可以把各自的优点结合起来
弥补不足.本文研究采用基于区域的跟踪方法.
3.1 运动预测
每帧图像中运动车辆的位置是不相同的.在目


第2期王俊骅,等:基于OpenCV和Halcon的交通冲突视频自动检测及数据处理

241
标跟踪过程中,可以先根据目标以前的运动轨迹来
对运动目标在下一帧中的位置进行预测 ,然后以该
预测位置为中心确定一个大小适当的搜索范围或称
窗口,这样可以不必在整幅图像中 搜索物体,而仅仅
在预测位置附近的搜索窗口内就可搜索到目标,从
而能够大大提高搜索精度、 加快搜索速度.
由于摄像机拍摄的视频图像帧与帧之间的时间
间隔极短(本文采用的视频图像帧 率30帧#s),
而车辆的运动轨迹为平滑曲线,运动速度即使发生
变化也是连续的,不可能发 生突变,因此可以认为在
极短的时间间隔内物体的运动是匀速直线运动,这
样可以极容易预测出 物体在下一帧中的位置.设运
动物体在前两帧图像中的位置坐标为(x
1
,y
1
),(x
2
,
y
2
),预测的位置坐标为(x,y),根 据匀速直线运动理
论可得:
(1)
y=y
2
+(y
2
-y
1
)
设定搜索窗的半径大小为r,(w
x
,w
y)为目标可能
出现的位置坐标,从而可以得出搜索范围:
x-r[w
x
[ x+r
y-r[w
y
[y+r
(2)
x=x
2
+( x
2
-x
1
)
-1
选取搜索窗口内的有效候选区域的重心至 当前
轨迹链终点的距离d、候选区域的面积A,轨迹链前进
方向偏角A三个因素作为选择判断的 尺度.以图10为
例,P
1
,P
2
为某条轨迹链的最后两点,需搜索 下一点.
搜索窗口内有L
1
,L
2
,L
3
,L4
四个候选对象,这四个连
通区域中,其重心位置离P
2
的距离d越小, 区域面积
值与P
2
所在区域的面积A越接近,前进方向的偏角A
越小,选中的 可能性就越大.将这三个因素综合起来
用统一的表达式来衡量,判别式为
F
i
=w
1
#
A
i
-A
0
i=1
6
6
n
n
+
A
i
-A
0
d
i
-d
0
d
i
-d
0
+w
3
#
A< br>i
i=1
n
w
2
#(3)
A
i
i= 1
6
式中:A
0
表示P
2
对应区域的面积;A
i< br>表示候选区域
的面积;d
0
表示P
1
,P
2
两点之间的距离;d
i
表示候
选区域的重心到P
2
的距离;w
1
,w
2
,w
3
分别为面
积、距离和角度三因素的权重, 本系统中取w
1
=
0.5,w
2
=0.3,w
3
= 0.2.n为候选区域的个数,n=4.
图10中有四个候选区域,因此能够计算出4个F
值, 其中使F值最小的那个区域即为轨迹链在当前
帧的跟踪结果.在必要的条件下可以对F设定一个
阈值K,以进一步对跟踪结果过滤,倘若在某一轨迹
链跟踪过程中每一个F均大于K,则认为该轨迹链< br>在当前帧中找不到对应点,轨迹在此帧中发生断裂.
利用上述目标检测与跟踪方法对拍摄的浦东大
道-巨野路交叉口视频图像进行试验,试验效果如图
11所示,实验证明:在交通量不大的交叉 口和路段运
动目标检测和跟踪效果良好,尤其在车辆运动比较
有规律的路段上.
得 到搜索范围之后,即可对重心位置位于该范
围之内的连通区域进行对象匹配甄选.预测示意图
如 图9所示,方框内为搜索范围,(x,y)为预测位置,
(x
3
,y
3
)为实际位置.
图9 车辆运动预测示意图
Fig.9 Vehiclemovingpredicting
3.2 对象匹配
由图9可看出,搜索窗口 内的对象很可能不只
一个,由此需进一步进行对象匹配.对象匹配是在确
定搜索范围之后,对搜 索范围内的众多对象按照一
定的判断标准进行甄选,以找出最符合条件的对象
作为最终跟踪的结 果,保证正确运动轨迹的延续.
由于两帧之间的时间间隔极短,同一运动目标
图10 对象匹配示意图
Fig.10 Objectmatching
所对应的检测区域在形状、大小(面积)、距离间隔、
3.3 数据信息的提取与实时保存
运动方向上都具有一致性,因此可以利用这方面的
每个运动目标的运 动轨迹由车辆在每帧图像中
信息构造相关的判断准则,最符合准则要求的即为
所寻找的对象.< br>的位置坐标(图像坐标)串联而成.且轨迹链的长度
需达到一定的长度才能保存至文本文件中,否 则被



242
同济大学学报(自然科学版)第38卷
认 为是噪声,直接从内存中被删除.有了这些组成轨
迹链的坐标,便可通过后续数据处理对车辆的运行状态做出详尽的分析,如分析车辆的速度、加速度变
化特征等.另外,位置坐标反映的是空间信息, 除空
间信息外,保存的信息中还须包含与空间位置相对
应的时间信息,便能明确车辆什么时间位 于什么地
点,从而较为完整地获知车辆的时空信息,这样便能
对交叉口实际的交通运行状况加以 实现.考虑到视
频文件中每一帧图片均对应着唯一的帧号,而帧号
的大小直接反映了车辆出现的 先后次序,故可将该
帧号记录下来,用于查看车辆出现的时间.
为8个,选取4个基准点即能建 立8个方程,每个基
准点均具有二维地面坐标与对应的二维图像坐标,
代入该函数便可计算出一 个3@3的坐标转换矩阵.
求解出坐标转换参数后,可由Halcon提供的函数
draw_p oint获取图像上任意点的图像坐标,再由函
数projective_trans_point_2 d将其转换为地面坐标.
坐标标定和转换界面如图12和图13所示.
图12 图像标定界面
Fig.12 Demarcatingthegraph
图11 第1216帧车辆检测和车辆轨迹跟踪效果
Fig.11 Vehicledetectingandtracingonframe1216
4 交通冲突的判定
4.1 微观交通参数的提取
4.1.1 坐标提取
通过对视频图像运 动目标的提取与跟踪,获得
了车辆在图像中的坐标.该坐标以图像坐标系为基
础,尚不能直接应 用于计算相关交通参数,必须通过
相应的坐标转换,将二维图像坐标转换成基于交叉
口地面的二 维地面坐标,这就需要一套坐标转换参
数.一般的摄像机标定涉及的是三维坐标系之间的
转换关 系,求取的参数很多,分为内参数和外参数,
达十多个,其本身是一个很复杂的过程.但由于本系
统的标定是一个不在同一平面上的两个二维坐标系
之间的转换问题,可以采用齐次坐标转换
[ 4]
的思路
求解坐标转换矩阵,省去了摄像机标定的繁琐过程.
xc
ycab
cd
x
+
y
x
y
e
f
图 13 坐标转换界面
Fig.13 Convertingthecoordinate
4.1.2 坐标数据的平滑处理
由于受检 测方法的限制,逐帧提取车辆位置坐
标时会不可避免存在随机误差,这一方面导致系统
提取的轨 迹会在真实轨迹附近随机摆动,另一方面
也会使后续的速度估算值系统性地大于真实值,因
此在 原始图像坐标数据转换成地面坐标之后需做进
一步的平滑处理
[5]
.本文采用均值滤 波法对坐标数
据进行平滑处理,即用某点前后若干点坐标分量的
平均值来代替其原有的坐标对应 分量,以此重新生
成一条新的更接近真实轨迹的轨迹链.求取平均值
的点个数称之为带宽,设为 n,带宽不同,算法的松
紧0程度不同,平滑后的曲线对细节的保留程度也不
同.带宽越小,去 除随机误差的能力也越小,保持细
节特征的能力越强;带宽越大,去除随机误差的能力
越强,但 保持原有局部特征的能力也越弱
4.2 微观交通参数的提取
4.2.1 同一帧图像中车辆间 距的计算
地面坐标经过平滑修正之后,计算在同一帧图
[6-7]
=(4)
1 +(u v)
式中,a,b,c,d,e,f,u,v即为坐标转换参数,给定若
干已知(x, y)和(xc,yc)两套坐标的控制点便可通过
式(4)反算出这些参数.根据这一思路可以直接采用
Halcon中的函数vector_to_proj_hom_mat2d计算坐
标转换参数 ,因此其过程大大简化.由于未知数个数
.


第2期王俊骅,等:基于OpenCV和Halcon的交通冲突视频自动检测及数据处理

243
像中出现的任意两辆车之间的实地距离如下:
d=(x
i
-x
j
)
2
+(y
i
-y
j
)
2
(5 )
式中:d为在同一帧图像中两辆车之间的实地距离;
(x
i
,y
i
)为在某帧图像中第i辆车的地面坐标;(x
j
,
y
j
)为 在某帧图像中第j辆车的地面坐标.
4.2.2 速度值和加(减)速度的计算
同一运动目标在 相邻两帧之间移动的距离亦可
通过式(5)计算出来,而两帧之间的时间间隔又为已
知,因此可 以计算出车辆在这段时间之内的平均速
度,由于时间间隔很小,可将该速度作为物体在这两
帧图 片中前一帧的瞬时速度.易知视频帧率的倒数
即为两帧之间的时间间隔(单位为s),例如视频帧率为24帧#s
-1
,则帧间时间间隔为124s,帧率为30
帧#s
-1
,则帧间间隔为130s.物体的实时运动速
度值计算公式如下:
v
t
=(x
t
-x
t+1
若d>d
v
,则判断为轻微冲突;< br>当a0
时,判断为普通的交通遭遇或无干扰
通过.
5 实例分析
以浦东大道-巨野路交叉口交通视频图像作简
单分析,如图14所示.浦东大道为城市 主干道,巨野
路为支路,交叉口为两相位信号控制T字形交叉口,
浦东大道直行相位1c40d ,巨野路左转相位30d.
)+(y
t
-y
t+1
)$$t
2 2
(6)
式中:v
t
为第t帧时的运动目标的瞬时运动速度;
(x< br>t
,y
t
)为第t帧时运动目标的地面坐标;(x
t+1
,< br>y
t+1
)为第t+1帧时运动目标的地面坐标;$$t为视频
文件相邻两帧之间 的时间间隔
[8-9]
图14 交叉口交通实景
Fig.14 Pictureoft heintersection
交叉口某一时段出现如下交通场景,如图14所
示,浦东大道上 的直行车辆与对向掉头车辆在空间
位置上不断接近,有可能产生碰撞,系统在某一时段
内检测到 相关车辆的行车轨迹如图15所示,直行车
辆的速度和减速度变化如图16和图17所示.由图
17中可知直行车辆在第175帧左右制动减速度明显
增大,并略大于4m
#
s,已经 超出驾驶员正常的主
动防御性的制动减速度值范围,因此判断驾驶员采
取了被动避让性的刹车行 为.但驾驶员并未一直以
大于4m
#
s
-2
的减速度制动至停车,而 是减速度又
有所减小,回落2m
#
s
-2
左右,故又可看出驾驶员应
-2
.
各帧的速度值分别计算完毕后,也会向初始地
面坐标那样表现得不够稳 定,同样需进行平滑处理.
具体处理办法为:选择合适的带宽n(n3),以待处
理的点为中心 选择附近n个速度值,去掉其中的一
个最大值和一个最小值,然后对剩下的n-2个点取
平均值 ,将该平均值作为当前帧的速度值
[10-11]
.在
计算出每帧的瞬时速度后,即可 利用相邻两帧之间
的时间间隔$$t进一步计算出运动目标每帧的加
(减)速度.
4.3 冲突分析
要实现交通冲突的视频检测,必须先要制定出
定量的冲突判别标准,以让计算机执行过 程中有
法0可依.根据冲突严重程度的定义,即为放置相撞
时车辆避险行为剧烈程度的大小,设 车辆制动减
速度为a,界定非交通冲突与交通冲突的临界值为
a
0
,界定轻微 冲突与严重冲突的临界值为a
1
;车辆行
驶速度为v,可能导致冲突发生的车辆之间的 距离为
d,按照非完全制动停车方式测量的并与相应车速v
对应的临界距离设为d
v< br>.倘若驾驶员采用的避险行
为明显表现为刹车,则具体判断标准如下:
当aa
1
时,若d[d
v
,则判断为严重冲突;若d
>d
v
,则判断 为中等冲突;
当a
0
[a[a
1
时,若d[d
v
, 则判断为严重冲突;
[1]
图15 系统检测行车轨迹
Fig.15 Vehiclestrackdetectedbythesystem



244
同济大学学报(自然科学版)第38卷
对前方变化的反应时间较为充裕. 此外,直行车辆与
前方车辆的距离随时间越来越小,如图18所示,在
驾驶员制动减速度大于4 m
#
s
-2
的瞬间车速大概为
7m
#
s
- 1
,车辆间距始终在10m以上,远远大于临
界距离,因此可以最终判断该直行车辆经过交叉口
的过程中发生了轻微交通冲突.
决方案,取得了很多研究成果,例如为了消除阴影的
影 响,运动目标检测算法开始考虑目标颜色特征;为
了克服车辆相互遮挡的影响,采用区域检测与特征检测相结合的方法.虽然算法还不是特别成熟,鲁棒
性和实时性还有所欠缺,但至少提出了一种解决 问
题的思路,这种思路值得进一步深入探索,视频检测
方法在交通冲突研究领域中的应用潜力巨 大.
参考文献:
[1] 刘小明,段海林.平面交叉口交通冲突技术标准化研究[J].公路交通科技,1997,14(3):43.
LIUXiaoming,earchontraff icconflict
图16 速度变化曲线
Fig.16 Speedcurve
t echniquestandardintheintersection[J].JournalofHigh way
andTransportation,1997,14(3):43.
[2] 张苏. 中国交通冲突技术[M].成都:西南交通大学出版
社,1998.
rafficconfli cttechnique[M].Chengdu:
SouthwestCommunicationU niversityPress,1998.
[3] C.海顿.交通冲突技术[M].张苏译.成都: 西南交通大学出版
社,1994.
cconflicttechnique[M].Trans latedbyZHANG
u:SouthwestJiaotongUniversityPress ,1994.
[4] 郑南宁.计算机视觉与模式识别[M].北京:国防工业出版
社,199 8.
ervisionandmodelrecognition
[M].Beijing:N ationalDefenceIndustryPubisher,1998.
[5] Gloyer B,AghajanHK,SiuKY,-basedfreeway
monitoringsyste musingrecursivevehicletracking[C]MSPIE
Proceedi ng,ImageandVideoProcessingÓ.Sydney:SPIE,
1995,( 2421):173-176.
[6] HiroyukiT,SinaF,sionforimage
processingandreconstruction[C]MIEEETransaction on
图17 速度变化曲线
Fig.17 Accelerationcurve
图18 直行车与掉头车之间的距离变化
Fig.18 Distancechangingoftheconflictingvehicle
gton:[s .n.],2007,16(2):158
-160.
[7] tedvideoanalys isasatoolforanalysing
roaduserbehaviour[C]MITSW orldCongress,London:[s.
n.],2006:193-195.
[8 ] 周伟,罗石贵.路段交通冲突的调查技术[J].长安大学学报:
自然科学版,2003,23(1 ):71.
ZHOUWei,wayofroad-traffic-conflict
tec hnique[J].ersity:NaturalScience
Edition,2003,23 (1):71.
[9] Hoong-ChorC,ementoftrafficconflicts
[J].SafetyScience,2001,26(3):169.
[10] 史忠科, 曹力.交通图像检测与分析[M].北京:科学出版
社,2007.
SHIZhongke,c pictureinspectandanalysis
[M].Beijing:SciencePr ess,2007.
[11] 郭力伟.道路交通数字图像技术应用研究[D].上海:同济大学
交通运输工程学院,2007.
ationofroadtrafficdigitalpictur e
technique[D].Shanghai:eof
TransportationEn gineering,2007.
6 展望
本文研究虽然初步实现了交通冲突视频自动监
测,系统真正的成熟应用还需解决一系列误差问题.
系统误差与其采用的方法直接相关,由于本系统目
标检测采用的是背景减法,目标跟踪采用的是基于
区域的跟踪方法,数据处理过程噪声的剔除采 用的
是均值滤波法,因此总的说来,系统存在的误差可以
分为如下几大类:目标提取误差、车辆 跟踪误差、单
相机投影误差和数据处理误差.这些误差影响了系
统性能的稳定性和可靠性,但这 不能否定基于视频
处理的交通冲突检测技术的可行性,恰恰相反正是
要强调这种技术的可能性. 目前很多从事计算机视
觉和图像处理的研究人员已经在探索上述问题的解

2017端午-数学教学计划


关于课余生活的作文-联欢晚会主持词


昌吉学校-德州人事考试信息网


围城读书笔记-录取通知书查询


南京师范大学研究生分数线-网络营销策划书范文


写检查-小学家长会班主任发言


湖南工艺美术学院-民主生活会会议记录


华东模范中学-双创工作总结