APP下载

一种融合卡尔曼滤波的改进时空上下文跟踪算法

2017-11-22赵洲黄攀峰陈路

航空学报 2017年2期
关键词:位姿卡尔曼滤波时空

赵洲, 黄攀峰,*, 陈路

1.西北工业大学 航天学院 智能机器人研究中心, 西安 710072 2.西北工业大学 航天飞行动力学重点实验室, 西安 710072

一种融合卡尔曼滤波的改进时空上下文跟踪算法

赵洲1,2, 黄攀峰1,2,*, 陈路1,2

1.西北工业大学 航天学院 智能机器人研究中心, 西安 710072 2.西北工业大学 航天飞行动力学重点实验室, 西安 710072

针对时空上下文跟踪算法对快速运动和遭受严重遮挡目标的跟踪精度下降问题,提出一种融合卡尔曼滤波的改进时空上下文跟踪算法。首先人工标记目标所在的矩形区域,然后利用改进的时空上下文算法对目标进行稳定跟踪,在跟踪过程中,基于连续两帧图像灰度的欧氏距离判定目标跟踪状态,当判定目标遭受严重遮挡时,利用卡尔曼滤波进行预测估计。算法对噪声有一定的容忍度,通过降低噪声对跟踪过程的影响,能够得到更优的目标区域。仿真实验结果表明:本文算法适用于不同光照强度下高速、高机动目标的稳定跟踪,并且对目标的尺度变化和短时严重遮挡具有鲁棒性。算法帧平均耗时为34.07 ms;帧几何中心平均误差为5.43 pixel,比时空上下文算法减少70.2%;目标轮廓面积平均误差为13.08%,比时空上下文算法减少52.7%。

目标跟踪; 卡尔曼滤波; 时空上下文; 置信图; 贝叶斯; 欧氏距离

计算机视觉已经在许多领域得到运用,其中目标跟踪作为其重要的组成部分,已经成为研究的热点问题。目标跟踪在商业领域中可以用于智能监控、人机交互、目标定位和人体跟踪等[1];军事领域中可以用于敌对目标的自动定位和追踪等[2];航天航空领域中可以用于非合作目标抓捕,合作目标定位、导航和追踪,以及空间机器人的伺服控制等。虽然目标跟踪在各个领域中得到了广泛运用,但由于跟踪对象以及对象所处的复杂环境,目标跟踪仍然存在许多亟待解决的难点:① 目标的轮廓、位姿和尺度变化等内在因素;② 跟踪过程出现的光照强度变化、遮挡和复杂背景等外在因素[3]。

针对目标跟踪过程中可能存在的遮挡、光照强度和目标位姿变化等问题,研究人员提出许多不同的跟踪算法。这些算法大多运用模板匹配[4-5]、小面元跟踪[6-7]、粒子滤波[8-9]、稀疏表达[10]、轮廓建模[11]和图像分割[12]等。比如,Pouya等[13]提出一种基于Kanade-Lucas-Tomasi (KLT)和卡尔曼滤波的跟踪算法,该算法运用KLT跟踪目标,同时,通过卡尔曼滤波算法对KLT得到的跟踪结果进行估测,以获得跟踪的最佳路径。Wang和Liu[14]提出了一种基于目标质地特性的跟踪方法,该算法估计目标在当前帧的位姿,通过卡尔曼滤波算法预测在下一帧时目标的位姿。为了增强在目标跟踪过程中卡尔曼滤波算法的稳定性,Fu和Han[15]对线性卡尔曼滤波算法进行了改进,该算法首先利用背景差分法搜寻移动目标,然后将质心加权方法用在卡尔曼滤波算法中,优化预测状态值。Su等[16]对视觉显著性模型进行了改进,将其与粒子滤波算法一起用于解决目标突然运动问题。蔡佳和黄攀峰[17]提出了一种适用于目标位姿发生快速变化的跟踪算法,该算法对跟踪形变较大和遭受部分遮挡的目标具有鲁棒性。高羽等[18]针对机动目标,提出了一种全新的动态模型,有效解决了状态模型不准确引起的问题。甘明刚等[19]在传统Mean Shift算法中引入了归一化转动惯量,并且针对目标被遮挡情况利用卡尔曼滤波进行预测估计,实验表明该算法在面对目标产生较大位姿和轮廓变化,以及遭受部分遮挡时,都能表现出良好的跟踪效果。但是,当目标遭受严重遮挡时,上述跟踪算法很难确保有效跟踪。

在目标跟踪过程中,常常会忽略目标与其周围环境的关系,然而利用目标周围环境信息来辅助跟踪对解决完全遮挡和目标超出跟踪视野等问题是非常重要的,Thang等[20]通过对目标周围信息进行分析,将其分为相似于目标的干扰项和与目标有联系的支持项,实验验证了利用上下文信息很好的防止面对复杂背景跟踪到相似目标,以及在目标离开视野和完全遮挡后,帮助再次获得正确目标,但是该跟踪算法不能跟踪外观快速变化的目标。Yang等[21]将图像中具有3种性质(与目标同时出现、运动与目标相关和跟踪简单)的信息作为辅助目标,辅助目标作为跟踪目标的上下文信息被运用于整个跟踪过程中,该算法能应对目标遭受短时间遮挡和丢失,但是对于辅助目标的恰当选择还需要进一步研究。同样面对完全遮挡和超出跟踪视野等问题,Grabner等[22]利用霍夫变换,将带有目标的支持项关联起来,同时区分了强耦合运动和弱耦合运动;通过这种方式,在面对目标遭受完全遮挡、远离视野和外观快速变化的情况下,能对目标位置进行估计,但是当该算法遭遇目标的支持项的突然改变时,将会失效。总而言之,在跟踪过程中利用上下文信息对解决完全遮挡、外观快速变化和目标超出跟踪视野等问题是非常有效的。

针对跟踪过程中出现的严重遮挡、光照强度改变、目标位姿变化和高速高机动等问题,本文提出一种融合卡尔曼滤波的改进时空上下文跟踪 (ISTC-KF)算法。该算法结合时空上下文(STC)快速跟踪与卡尔曼滤波预测估计的优势进行目标跟踪,并且跟踪实验结果表明,在目标快速运动、存在较大形变和被遮挡情况下,算法仍能够进行实时、稳定地跟踪。本文算法与文献[20-22]都属于利用上下文信息辅助跟踪,但是本文提出的算法与它们有本质上的区别,它们利用的上下文信息为目标周围稀少的关键点信息,而本文算法则是利用了围绕目标周围的整个局部信息,这样防止了仅利用稀少关键点信息而丢失与目标相关的其余重要上下文信息,并且通过时空上下文模型的学习不断更新目标与局部上下文信息的相关性,同时利用卡尔曼滤波可以有效降低跟踪过程中噪声带来的不利影响。

1 时空上下文与卡尔曼滤波算法

1.1 时空上下文算法

STC算法[23]建立在贝叶斯框架下,用式(1)定义了被跟踪目标与它周围区域的时空上下文关系,得到灰度特征的统计相关性,同时结合生物视觉系统领域的注意力集中点理论来得出下一帧中目标出现区域的置信图:

c(x)=P(x|o)=

(1)

式中:Xr={m(r)=(I(r),r)|r∈Ωm(x*)}为时空上下文特征集合;c(·)为目标的置信图;o表示跟踪目标出现在当前帧中;I(r)为位置r处的图像灰度;x∈R2为目标位置;x*为目标的中心位置,Ωm(x*)为环绕x*的区域;m(r)为位置r的时空上下文特征;P(x|m(r),o)为条件概率,定义了目标位置与目标周围环境的空间关系;P(m(r)|o)为上下文先验概率。

STC算法通过计算置信图,得出使置信图最大的目标位置,其中对目标模型的学习和检测过程中,都使用傅里叶变换加快STC算法自身的解算速度。针对遭受部分遮挡,以及位姿和光照强度变化快的目标,STC算法能够取得较好的跟踪效果,但面对高机动以及遭受严重遮挡的目标时,算法跟踪精度下降,甚至失效。

1.2 卡尔曼滤波算法

卡尔曼滤波算法[24-25]主要用于目标位置以及状态的估测,该算法以目标的位置、速度和加速度为目标状态矢量,通过建立目标状态方程来描述目标状态的变化,利用递推的计算方法,估测目标位置和状态,并且卡尔曼滤波算法对噪声有一定程度的容纳性,可以有效降低目标跟踪过程中噪声产生的影响。在本文算法中,它主要用于当目标遭受严重遮挡时对目标位置的预测。卡尔曼滤波可用式(2)的状态方程和式(3)的观测方程分别表示:

xt+1=φxt+wt

(2)

Yt=Hxt+Vt

(3)

式中:xt为在帧数t的状态向量;φ为状态转移矩阵;wt为考虑系统扰动的状态噪声;H为观测矩阵;Vt为测量噪声;Yt为由传感器获得的测量向量。

2 跟踪算法

STC算法在目标跟踪过程中展现出快速跟踪的优势,但是对于高速高机动和遭受严重遮挡以及完全遮挡时会失效,不能判断目标是静止还是已经跟踪失败,没有进行判断的能力,导致跟踪失败时,跟踪框位置不会发生变化,而STC算法与同类算法[20-22]的不同在于:其充分利用了围绕目标周围的整个局部信息而非目标周围稀少的关键点信息,这样防止了仅利用稀少关键点信息而丢失与目标相关的其余重要上下文信息。航空航天中的机动目标所处环境简单,能利用的上下文信息本身较少,使得文献[20-22]利用关键点信息的方式并不能较好地适用于该领域的跟踪,所以本文在利用STC算法的优势时,对其缺陷进行了改进,来满足对航空航天中的高速高机动目标进行跟踪的要求。

2.1 改进时空上下文算法

本文重新定义了目标位置与其周围环境的空间关系的条件概率。为了在跟踪过程中更好地适应跟踪目标尺度的变化,运用高斯函数替代STC算法中的权重函数。这是因为在给出目标区域时,目标区域的边缘方向是未知的,而二维的高斯函数具有旋转对称性,在边缘检测时不会偏向任何一方;而且STC算法在对目标模型的学习和检测过程中,都使用傅里叶变换加快STC算法自身的解算速度。高斯函数的傅里叶变换以及反变换还是高斯函数本身,这样虽然图像的边缘既含有低频分量,又含有高频分量,但是并不会受无关的高频信号所污染。ISTC的先验概率为

(4)

式中:β为跟踪目标的尺度比例参数。

(5)

现有的搜索目标的算法一般都是模板匹配[4-5],通过初始选择定义好的模板进行全局或者局部搜索,但在面对高速高机动目标时,由于目标的外观产生巨大形变,而使得初始定义的模板不能较好地寻找目标。本文提出的算法是在上一帧取得的目标基础上,对目标模型不断进行学习,更好地适应了模型外观快速的变化,同时利用傅里叶变换加快了求解最大置信图的速度。

图1 获得目标中心位置的方法
Fig.1 Method for obtaining central position of tracking object

2.2 融合卡尔曼滤波算法

在目标跟踪过程中,复杂环境使得目标遭受遮挡的状况无法避免。如果遇到此种情况,很多算法都将失效。由于本文算法是基于STC算法的改进,能够满足目标遭受部分遮挡的跟踪问题,但是针对严重遮挡问题,还需要进行再次改进。

首先对跟踪过程中遭受的严重遮挡进行判定。通过式计算第t-2帧和第t-1帧跟踪目标图像灰度的欧氏距离[26]:

dE(It-1(r),It-2(r))=

k=1,2,3…

(6)

(7)

预测第t+1帧目标位置的协方差矩阵Pt+1|t为

Pt+1|t=φPt|tφΤ+Q

(8)

式中:Pt|t为第t帧的协方差矩阵;Q为状态噪声协方差矩阵,在本文中为常数阵。

Pt+1|t+1=Pt+1|t-Kt+1HPt+1|t

(9)

(10)

式中:Kt+1为卡尔曼增益矩阵,可由式(11)获得:

Kt+1=Pt+1|tHT(HPt+1|tHT+R)-1

(11)

式中:R为测量噪声协方差矩阵,在本文中为常数阵。

(12)

图2 融合卡尔曼滤波的改进时空上下文(ISTC-KF)跟踪算法流程
Fig.2 Flowchart of tracking algorithm of improved spatio-temporal context with Kalman filter (ISTC-KF)

首先,在第1帧中人为指定跟踪目标的矩形框,利用ISTC算法在没有被遮挡和部分遮挡的情况下对目标进行跟踪;然后在跟踪的过程中,实时判断目标是否存在严重遮挡,如果存在严重遮挡,则利用卡尔曼滤波预测下一帧目标可能存在的位置,并将预测的位置赋值于ISTC算法中的目标中心位置,再次运行跟踪算法,判断是否还存在严重遮挡。

3 实验条件与结果分析

3.1 实验条件

为了验证本文算法的可行性和有效性,在飞机表演视频和室内David等数据集上进行算法的跟踪实验。在整个跟踪实验中,使用的实验平台为:1 GB内存和2.31 GHz主频的计算机,基于Windows操作系统,以MATLAB (2012b)为编程平台,实验参数与文献[23]设定不全一样,更新时空上下文模型的学习参数为0.004 5,置信图中的尺度参数为2,权重函数中的尺度参数为每3帧更新一次,所用的系统状态传递矩阵φ和观测矩阵H分别为

测量噪声协方差矩阵R为

状态噪声协方差矩阵Q为

协方差矩阵的初值为

3.2 结果分析

针对遭受严重遮挡、高速高机动和自身位姿改变的目标,分别采用STC算法和本文算法进行跟踪实验,并比较跟踪效果。本文所有跟踪实验均是在第1帧手动标记目标区域情况下进行。

图 3为严重遮挡情况下的跟踪结果。视频的每帧尺寸为640 pixel×480 pixel。由图 3可知,在第1帧和第47帧无遮挡情况下,STC算法与本文算法都表现出了良好的跟踪效果;当跟踪到第70帧和第73帧时,目标遭受了部分遮挡,两种算法同样表现出了较好的跟踪效果;但是当进入第80帧和第83帧时,目标遭受全部遮挡。在遭受全部遮挡后,根据第92帧和第112帧的跟踪结果可知,本文算法还能继续跟踪目标,而STC算法却已经丢失了目标,所以本文算法能很好地解决严重遮挡问题。

图4为David室内跟踪结果。视频的每帧尺寸为320 pixel×240 pixel。此次选的视频所面对的跟踪挑战为:光照强度剧烈变化、目标自身位姿改变以及目标尺度的变化。由图 4可知,在第52、146、287帧光照强度很低的情况下,两种算法都能对目标进行跟踪,但是当进入第414帧和第473帧时,STC算法较本文算法有明显的飘移。比较第473帧和第512帧图像,在面对目标尺度和自身位姿发生较大改变时,本文算法能较好地适应目标尺度和位姿的改变。在第612帧和第701帧时,目标外形出现了改变,但是本文算法并未受到此影响,还是表现了良好的跟踪效果。

图3 严重遮挡情况下的跟踪结果
Fig.3 Tracking results of severe occlusion sequence

图4 David室内跟踪结果
Fig.4 Tracking results of David indoor sequence

目标跟踪算法的常用性能评价指标针包括几何中心误差、目标轮廓重叠面积和重叠面积比率等。针对本文跟踪的目标尺度不断发生变化的情况,使用几何中心误差和目标轮廓面积误差比率作为目标跟踪算法的性能评价指标。

表1为图4中David几何中心的定位信息。在跟踪过程中自动得出目标跟踪矩形框的几何中心位置,然后人工画出目标的最小矩形框,求出此最小矩形的中心位置并将其作为目标的真实位置。实验中所求得的STC算法和本文算法的帧平均误差分别为18.24 pixel和5.43 pixel,可见本文算法对目标的定位优于STC算法。这是因为在改进STC算法后,扩大了对目标的搜索,使得本文算法能更加精确地定位目标。表2为图4中David最小外接矩形的定位信息。在跟踪过程中自动得出目标跟踪矩形框的面积,然后人工画出目标的最小矩形框,求出此最小矩形的面积并将其作为目标的真实面积。实验中求得的STC算法和本文算法的帧平均误差分别为27.65%和13.08%,可见本文算法对目标的定位精度优于STC算法。由表 2中的数据可知,在第414、473和512帧中,本文算法的帧平均误差改变较大。其原因为在这3帧中,由于目标轮廓、位姿和尺度变化幅度大,导致人工标出的目标真实面积比其余5帧小,因此得出的帧平均误差产生很大变化。

表1 David几何中心的定位信息Table 1 Location information of David’ geometric center

表2 David最小外接矩形的定位信息Table 2 Location information of David’ least circumscribed rectangular

跟踪实验过程中,同步记录了两种算法在每帧消耗的时间,随机选择了David室内跟踪结果中第100~160帧的耗时进行比对,如图 5为STC算法和本文算法在每帧耗时的对比。由图 5可知,STC算法和本文算法的平均耗时分别为6.00 ms和34.07 ms。本文算法耗时要高于STC算法,这是由于本文算法扩大了目标搜索范围,并且在跟踪过程中要实时地判断目标是否遭受严重遮挡,所以耗时较多;虽然在耗时上高于STC算法,但却得到了更佳的跟踪效果。

图6为高速高机动目标的跟踪结果。此次选着的视频面对的跟踪挑战为:目标自身位姿和目标尺度的变化剧烈。视频的每帧尺寸为320 pixel×240 pixel。从图6中可知,面对高机动和高速的跟踪目标,STC算法在第5帧之后已经失效,尤其对于第58帧和第63帧,跟踪框变得越来越大,这是由于STC在面对目标尺度变化时,只适应目标尺度单调增加的情况,最后,跟踪窗口超过了背景图像的大小,使得跟踪失败,但本文算法面对高速高机动目标时,表现的更为优越。

图5 两种算法帧耗时对比
Fig.5 Comparison of time consumption per frame using two methods

为了更好地验证提出的算法,通过选取公共数据集[27-28]中的6种具有挑战性的图像序列进行实验,并将本文算法与4种优秀算法进行比较,这4种优秀算法分别为:CT (Compressive Tracking)[29]、CXT (Context Tracker)[20]、STC和TLD (Tracking-Learning-Detection)[30]。这些图像序列覆盖了目标跟踪领域大多数具有挑战的场景:光照变化、尺度变化、遮挡、形变、运动模糊、快速运动、平面内外旋转、低分辨率和背景杂斑。第1帧采用公共数据集提供的ground-truth初始化跟踪框。通过中心定位误差和重叠率对上述5种算法进行评价,结果如表3和表4所示。表3和表4中:粗体和斜体数值分别表示最好的和次好的结果。

图6 高速高机动目标跟踪结果
Fig.6 Tracking results of high speed and highly maneuvering target sequence


图7为5种算法在6种图像测试序列的中心定位误差,图8为对6种图像序列的采样跟踪结果。总的来说,本文算法在跟踪快速运动目标时的表现更好;整体跟踪效果优于同类跟踪算法CXT和STC。

表4 平均重叠率Table 4 Average overlap rate

图7 中心定位误差定量评价
Fig.7 Quantitative evaluation in terms of central location error

图8 评价算法对6种具有挑战性的图像序列的采样跟踪结果
Fig.8 Sample tracking results of evaluated algorithms for six challenging image sequences

4 结 论

1) 为解决在跟踪过程中丢失高速高机动和遭受严重遮挡目标的问题,提出一种基于时空上下文快速跟踪的算法,同时结合卡尔曼滤波算法能对目标状态以及位置进行估测和降低噪声影响的优势,实现了对目标位置的提前预测。

2) 通过跟踪实验,与4种优秀算法进行比较,ISTC-KF在保证跟踪精度的前提下,对跟踪目标遭受严重遮挡、自身位姿变化以及受到的光照强度变化等情况具有较好的鲁棒性。

3) 本文算法主要针对简单背景下的高速高机动目标,对于复杂背景下的运动目标的跟踪效果不佳,这是由于复杂背景中有很多干扰项(颜色、纹理与目标相近),使得跟踪过程中不能很好区分目标与背景,后续将继续针对复杂背景问题进行进一步改进。

[1] ZHOU H Y, YUAN Y, ZHANG Y, et al. Non-rigid object tracking in complex scenes[J]. Pattern Recognition Letters, 2009, 30(2): 98-102.

[2] SIVIC J, SCHAFFALITZKY F, ZISSERMAN A. Object level grouping for video shots[J]. International Journal of Computer Vision, 2006, 67(2): 189-210.

[3] 张焕龙, 胡士强, 杨国胜. 基于外观模型学习的视频目标跟踪方法综述[J]. 计算机研究与发展, 2015, 52(1): 177-190.

ZHANG H L, HU S Q, YANG G S. Video object tracking based on appearance models learning[J]. Journal of Computer Research and Development, 2015, 52(1): 177-190 (in Chinese).

[4] ZIMMERMANN K, MATAS J, SVOBODA T. Tracking by an optimal sequence of linear predictors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(4): 677-692.

[5] ELLIS L, DOWSON N, MATAS J, et al. Linear regression and adaptive appearance models for fast simultaneous modelling and tracking[J]. International Journal of Computer Vision, 2011, 95(2): 154-179.

[6] KALAL Z, MIKOLAJCZYK K, MATAS J. Forward-backward error: Automatic detection of tracking failures[C]//Proceedings of 2010 the 20th International Conference on Pattern Recognition (ICPR). Piscataway, NJ: IEEE Press, 2010: 2756-2759.

[7] ZHANG L, VAN DER MAATEN L. Preserving structure in model-free tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(4): 756-769.

[8] TZIMIROPOULOS G, ZAFEIRIOU S, PANTIC M. Sparse representations of image gradient orientations for visual recognition and tracking[C]//Proceedings of 2011 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway, NJ: IEEE Press, 2011: 26-33.

[9] LIWICKI S, ZAFEIRIOU S, TZIMIROPOULOS G, et al. Efficient online subspace learning with an indefinite kernel for visual tracking and recognition[J]. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(10): 1624-1636.

[10] MEI X, LING H B. Robust visual tracking and vehicle classification via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(11): 2259-2272.

[11] HORBERT E, REMATAS K, LEIBE B. Level-set person segmentation and tracking with multi-region appearance models and top-down shape information[C]//Proceedings of 2011 IEEE International Conference on Computer Vision (ICCV). Piscataway, NJ: IEEE Press, 2011: 1871-1878.

[12] NICOLAS P, AURELIE B. Tracking with occlusions via graph cuts[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(1): 144-157.

[13] POUYA B, SEYED A C, MUSA B M M. Upper body tracking using KLT and Kalman filter[J]. Procedia Computer Science, 2012, 13: 185-191.

[14] WANG Y, LIU G. Head pose estimation based on head tracking and the Kalman filter[J]. Physics Procedia, 2011, 22: 420-427.

[15] FU Z X, HAN Y. Centroid weighted Kalman filter for visual object tracking[J]. Measurement, 2012, 45(4): 650-655.

[16] SU Y Y, ZHAO Q J, ZHAO L J, et al. Abrupt motion tracking using a visual saliency embedded particle filter[J]. Pattern Recognition, 2014, 47(5): 1826-1834.

[17] 蔡佳, 黄攀峰. 基于改进SURF和P-KLT的特征点实时跟踪方法研究[J]. 航空学报, 2013, 34(5): 1204-1214.

CAI J, HUANG P F. Research of real-time feature point tracking method based on the combination of improved SURF and P-KLT algorithm[J]. Acta Aeronautica et Astronautica Sinica, 2013, 34(5): 1204-1214 (in Chinese).

[18] 高羽, 张建秋, 尹建君. 机动目标的多项式预测模型及其跟踪算法[J]. 航空学报, 2009, 30(8): 1479-1489.

GAO Y, ZHANG J Q, YIN J J. Polynomial prediction model and tracking algorithm of maneuver target[J]. Acta Aeronautica et Astronautica Sinica, 2009, 30(8): 1479-1489 (in Chinese).

[19] 甘明刚, 陈杰, 王亚楠, 等. 基于Mean Shift算法和 NMI特征的目标跟踪算法研究[J]. 自动化学报, 2010, 36(9): 1332-1336.

GAN M G, CHEN J, WANG Y N, et al. A target tracking algorithm based on mean shift and normalized moment of inertia feature[J]. Acta Automatic Sinica, 2010, 36(9): 1332-1336 (in Chinese).

[20] THANG B D, NAM V, GERARD M. Context tracker: Exploring supporters and distracters in unconstrained environments[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2011: 1177-1184.

[21] YANG M, WU Y, HUA G. Context-aware visual tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2009, 31(7): 1195-1209.

[22] GRABNER H, MATAS J, VAN G L, et al. Tracking the invisible: Learning where the object might be[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2010: 1285-1292.

[23] ZHANG K H, ZHANG L, LIU Q S, et al. Fast visual tracking via dense spatio-temporal context learning[C]//European Conference on Computer Vision (ECCV). Zurich: Springer, 2014: 127-141.

[24] CHEN S Y. Kalman filter for robot vision: A survey[J]. IEEE Transactions on Industrial Electronics, 2012, 59(11): 4409-4420.

[25] 王向华, 覃征, 杨新宇, 等. 基于多次卡尔曼滤波的目标自适应跟踪算法与仿真分析[J]. 系统仿真学报, 2008, 20(23): 6458-6465.

WANG X H, QIN Z, YANG X Y, et al. Adaptive algorithm based on multi-Kalman filter for target tracking and simulation analyses[J]. Journal of System Simulation, 2008, 20(23): 6458-6465 (in Chinese).

[26] WANG L, ZHANG Y, FENG J. On the Euclidean distance of images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2005, 27(8): 1334-1339.

[27] WU Y, LIM J, YANG M H. Online object tracking: A benchmark[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2013: 2411-2418.

[28] WU Y, LIM J, YANG M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.

[29] ZHANG K, ZHANG L, YANG M H. Real-time compressive tracking[C]//European Conference on Computer Vision (ECCV). Florence: Springer, 2012: 864-877.

[30] KALAL Z, MATAS J, MIKOLAJCZYK K. P-N learning: Bootstrapping linary classifiers by structural constraints[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2010: 49-56.

(责任编辑: 张玉)

URL:www.cnki.net/kcms/detail/11.1929.V.20160629.0822.002.html

Atrackingalgorithmofimprovedspatio-temporalcontextwithKalmanfilter

ZHAOZhou1,2,HUANGPanfeng1,2,*,CHENLu1,2

1.ResearchCenterforIntelligentRobotics,SchoolofAstronautics,NorthwesternPolytechnicalUniversity,Xi’an710072,China2.NationalKeyLaboratoryofAerospaceFlightDynamics,NorthwesternPolytechnicalUniversity,Xi’an710072,China

Fortherapidtargetsufferingfromsevereocclusion,thetrackingaccuracyofspatio-temporalcontextalgorithmdecreases.Anoveltrackingalgorithmofimprovedspatio-temporalcontextwithKalmanfilterisproposedinthepaper.Therectangularregionofthetrackingobjectismanuallymarkedatthefirstframe,andtheimprovedspatio-temporalcontextalgorithmisthenappliedtotrackthetarget.TheEuclideandistanceoftheimageintensityintwoconsecutiveframesdeterminesthestateofthetargetinthetrackingprocess.WeapplyKalmanfiltertoreducetheinfluenceofnoiseandpredictandestimatethepossiblepositionofthetargetundersevereocclusion,andobtainbetterrectangularregionofthetrackingobject.Theexperimentalresultsshowthatthealgorithmofimprovedspatio-temporalcontextwithKalmanfiltercanbeusedforhighspeedandhighlymaneuveringtrackingtargetwithdifferentlightintensities,andisrobustforthetargetwithvariedscaleandsevereocclusion.Timeconsumptionperframeis34.07ms.Geometriccentererrorperframeis5.43pixel,70.2%lessthanthatviathespatio-temporalcontextalgorithm.Thecontourareaperframeis13.08%,52.7%lessthanthatviathespatio-temporalcontextalgorithm.

targettracking;Kalmanfilter;spatio-temporalcontext;confidencemap;Bayesian;Euclideandistance

2016-04-11;Revised2016-05-19;Accepted2016-06-27;Publishedonline2016-06-290822

s:NationalNaturalScienceFoundationofChina(11272256,61005062,60805034)

.E-mailpfhuang@nwpu.edu.cn

2016-04-11;退修日期2016-05-19;录用日期2015-06-27; < class="emphasis_bold">网络出版时间

时间:2016-06-290822

www.cnki.net/kcms/detail/11.1929.V.20160629.0822.002.html

国家自然科学基金 (11272256,61005062,60805034)

.E-mailpfhuang@nwpu.edu.cn

赵洲, 黄攀峰, 陈路. 一种融合卡尔曼滤波的改进时空上下文跟踪算法J. 航空学报,2017,38(2):320306.ZHAOZ,HUANGPF,CHENL.Atrackingalgorithmofimprovedspatio-temporalcontextwithKalmanfilterJ.ActaAeronauticaetAstronauticaSinica,2017,38(2):320306.

http://hkxb.buaa.edu.cnhkxb@buaa.edu.cn

10.7527/S1000-6893.2016.0202

V249; TP391

A

1000-6893(2017)02-320306-11

猜你喜欢

位姿卡尔曼滤波时空
基于深度强化学习与扩展卡尔曼滤波相结合的交通信号灯配时方法
跨越时空的相遇
脉冲星方位误差估计的两步卡尔曼滤波算法
镜中的时空穿梭
基于PLC的六自由度焊接机器人手臂设计与应用
基于位置依赖的密集融合的6D位姿估计方法
曲柄摇杆机构的动力学仿真
卡尔曼滤波在信号跟踪系统伺服控制中的应用设计
玩一次时空大“穿越”
基于单目视觉的工件位姿六自由度测量方法研究