视觉跟踪是视频分析的基础研究问题,对视频监控和人机交互等应用具有重要意义。虽然视觉跟踪及其应用研究已取得了一些成果,但是,视觉跟踪仍然面临复杂动态背景、目标视觉特征变化和目标非确定性运动等难题。本项目针对这些难题,围绕视觉跟踪观测模型和状态推导两个核心问题,以利用目标的上下文信息和运动信息提高视觉跟踪的性能为出发点,利用分类间隔(margin)原理、图像检索方法和子空间分析,研究视觉跟踪观测模型、模型自适应更新和自适应混合状态估计模型等问题,旨在建立具有鲁棒性、实时性和精度高的视觉跟踪算法,并给出这些算法在低空成像平台视觉跟踪中的应用。
visual tracking;context information;appearance models;model update;fast tracking algorithms
本项目针对非约束环境下视觉跟踪面临的复杂动态背景、目标视觉特征变化和目标非确定性运动等难题,以利用目标的上下文信息提高视觉跟踪的鲁棒性、精度和快速性为出发点,利用鲁棒主分量分析、稀疏编码和字典学习,研究视觉跟踪表观模型、模型更新、快速算法及其应用等问题。具体来说,包括以下几个方面(1)基于目标时间上下文信息,利用鲁棒主分量分析和L2范数正则化鲁棒编码提出了视觉跟踪表观模型,提高了视觉跟踪的精度;(2)基于目标的时空上下文信息,利用在线字典学习提出了判别式视觉跟踪表观模型及其模型更新方法,提高了视觉跟踪的鲁棒性;(3)利用结构稀疏编码提出了快速的视觉跟踪方法;(4)在应用研究方面,提出了一个基于混合表观与状态估计模型的快速鲁棒的无人机成像目标跟踪方法。本项目共发表论文12篇,录用论文1篇,其中EI检索8篇。