本项目以复杂环境(背景噪音较多、遮挡、光照和视点的改变等)下的视频跟踪应用为基本背景,对跟踪中的目标建模及形变(尺度和方向)自适应估计两类关键性问题开展快速稳健的算法研究,旨在提出能够在复杂环境下准确、可靠地描述动态目标的建模方案和有效处理目标尺度和方向变化等问题的方法。具体内容包括基于背景加权直方图,研究初始区域包含较多背景噪音时的目标建模方法;基于稀疏表示,研究反映状态变化下的目标模型集合的建立和更新方法;基于有效的点样本描述子,研究利用关键点的目标建模方法;基于稀疏表示和图像分割,研究目标形变的自适应估计算法。本项目的研究成果将为复杂背景下自动监控、人机交互、车辆导航和行为分析等领域的视频跟踪问题,提供新的方法和手段,具有广阔的应用前景。
object tracking;object representation;deformation estimation;model updating;feature selection
本项目以复杂环境(背景噪音较多、遮挡、光照和视点的改变等)下的视频跟踪应用为基本背景,对跟踪中的目标建模及形变(尺度和方向)自适应估计两类关键性问题开展快速稳健的算法研究,旨在提出能够在复杂环境下准确、可靠地描述动态目标的建模方案和有效处理目标尺度和方向变化等问题的方法。主要内容包括基于背景加权直方图,提出一种校正背景加权直方图的目标表示方法,改进初始目标包含较多背景信息时Mean shift跟踪方法的性能;以分布场目标表示方法为对象,开展结合背景特征的加权分布场目标表示方法,利用加权几何均值多示例学习模型选择能够有效区分目标与背景的少量判别性层表示目标,利用傅里叶变换快速计算检测区域与目标模型的相似度,全局最优化确定目标位置;针对多示例学习跟踪方法,利用最大似然估计,提出了一种改进的表面模型更新算法;以压缩感知跟踪为对象,提出了最优特征的选择方法;将多示例学习跟踪中目标表示用单通道Haar-like特征拓展为多通道Haar-like特征,增强对彩色视频的跟踪性能;以CS-LBP和OCLBP为研究对象,分别提出了两种基于纹理特征的关键点目标表示方法;在Mean Shift跟踪框架下,分析权值图像的矩特征,提出一种鲁棒的目标尺度和方向形变自适应估计方法;通过同时匹配目标的前景和背景特征,提出了一种基于配准和分割的目标轮廓估计方法。在本项目的支持下,共发表(含录用)SCI检索论文6篇,知名国际会议论文2篇,EI检索论文8篇,一级学报论文3篇,核心期刊2篇。其中1篇SCI论文获得2013年度最佳论文奖,具有较强的国际影响力。本项目的研究成果为复杂背景下自动监控、人机交互、车辆导航和行为分析等领域的视频跟踪问题,提供新的方法和手段,具有广阔的应用前景。