随着社会对公共安全的日益关注,智能视频监控系统应用领域不断扩大,显示出广泛的应用前景和巨大的潜在经济价值。本项目对机器学习中半监督在线学习算法进行深入研究,探索适用于智能视频监控系统具体问题的半监督学习方法,通过对少量标记样本和大量未标记样本的在线学习,实现视频分析中运动检测、目标跟踪和行为分析等关键算法的在线更新,使系统能够适应不同场景、视点、气候和光照等条件的动态变化,提高算法的性能。项目研究一方面要设计出符合视频分析需要的半监督在线学习算法,探索新的在线学习方法,争取在理论上有所突破和创新;另一方面通过半监督在线学习算法的研究与应用,提高智能视频监控系统的在线学习能力,从而改善系统适应性,力争取得具有自主知识产权的新型视频分析技术,应用于实际智能视频监控系统中,以解决智能视频监控应用中一些急待解决的实际问题。
video analysis;online learning;machine learning;video surveillance;
项目重点研究具有在线学习能力的智能视频监控关键技术和方法,开发基于半监督在线学习的目标检测、运动跟踪、行为分析等算法,提高智能视频监控系统的实时性、准确性和适应性。按照预定的研究计划,在深入分析和研究项目需要解决的主要问题的基础上,项目取得了如下研究成果在异常行为检测方面,提出了一种基于在线更新统计异常事件检测算法,通过在线聚类和多特征融合的事件描述,根据未知样本出现在相应区域的概率判断是否属于异常。在公共数据库实验验证了该算法的实时性、稳定性、准确性等特性。在行人检测方面,提出了一种自适应的半监督多视角特征选择算法,在半监督的学习框架下,充分挖掘各个视角特征之间的关联性和互补性,丢弃不相关的特征和噪声,选择最相关的特征,实验证明此分类器可以提供更加准确的头肩描述。在运动跟踪方面,提出一种基于压缩感知与鲁棒PCA的目标跟踪算法,设计了新的模板集合与在线更新策略,采用鲁棒PCA约束平稳变化的动态模板的更新,利用背景模板降低背景的干扰,有效地改善了跟踪算法的鲁棒性。在目标检测方面,物体显著性可以大大减少监控算法的计算压力,提高重点关注区域的检测和检索效率。提出了一种滑动窗显著物体检测方法,在对图像进行分割后,检测窗内物体的显著性定义为图像其它部分组成检测窗的代价函数。通过一种贪婪优化算法计算不同位置和尺度的检测窗显著性,找到局部最大值的窗口确定显著性物体。这一方法经过在公共数据库上进行了测试,性能值得肯定。项目的研究可以有效提升智能视频监控系统的性能,部分相关成果已经应用于我国高速铁路视频监控系统中。项目期间培养博士生1名,硕士生 10 名,在国际期刊和重要国际会议发表论文 10 篇,申请并获得授权国家发明专利 1项。