位置:立项数据库 > 立项详情页
基于视觉场景信息自动获取的视频在线目标分类方法研究
  • 项目名称:基于视觉场景信息自动获取的视频在线目标分类方法研究
  • 项目类别:青年科学基金项目
  • 批准号:61005016
  • 申请代码:F030403
  • 项目来源:国家自然科学基金
  • 研究期限:2011-01-01-2013-12-31
  • 项目负责人:张兆翔
  • 负责人职称:副教授
  • 依托单位:北京航空航天大学
  • 批准年度:2010
中文摘要:

目标分类是计算机视觉领域的热门研究方向,在智能视频分析中至关重要。我们对视频中的目标分类问题开展研究,具有重要的理论意义和应用前景。摄像机投影所带来的透视变形已经成为进一步提高目标分类算法性能的瓶颈问题。现有大部分算法孤立处理场景中的感兴趣目标,在处理透视变形问题上存在显著的局限性。我们认为感兴趣目标所在的视觉场景信息恰恰就是克服透视变形问题的关键。本课题拟从二维视频中自动提取视觉场景信息,建立全面而准确的视觉场景信息模型,并通过该模型与特征表达模块的交互,获得对三维视角鲁棒乃至不变的有效特征,将目标分类从大样本的数据库采集和手工标注中解脱出来。在此基础上,本课题拟将在线学习策略引入目标分类问题中,通过分类器的在线迭代提高分类器对场景环境变化的适应性。本课题的最终目标是将视觉场景信息的提取和目标分类整合于统一的系统框架下,提供更为有效、更为便捷的目标分类解决方案。

结论摘要:

目标分类是计算机视觉领域的热门研究方向,在智能视频分析中至关重要。我们对视频中的目标分类问题开展研究,具有重要的理论意义和应用前景。摄像机投影所带来的透视变形已经成为进一步提高目标分类算法性能的瓶颈问题,我们认为感兴趣目标所在的视觉场景信息恰恰就是克服透视变形问题的关键。本课题从二维视频中自动提取视觉场景信息,建立全面而准确的视觉场景信息模型,并通过该模型与特征表达模块的交互,获得对三维视角鲁棒乃至不变的有效特征,将目标分类从大样本的数据库采集和手工标注中解脱出来。在此基础上,本课题将其他场景理解的方法如在线学习、迁移学习等策略引入目标分类问题中,通过分类器的在线迭代提高分类器对场景环境变化的适应性。在三年的工作中,本课题就摄像机模型获取、地平面矫正、场景与物体模型交互、基于迁移学习和在线学习的目标分类、基于整体化的物体分析等问题展开研究,将视觉场景信息的提取和目标分类整合于统一的系统框架下,提供了更为有效、更为便捷的解决方案。本项目在IEEE Transactions on Image processing, IEEE Transactions on Circuits and Systems for Video Technology等国际知名期刊和会议上发表论文62篇,申请专利5项,已授权专利4项,有2项科研成果在国家部委和企业单位取得成功应用推广,取得了显著的经济效益和社会影响。在项目支持下,申请人获批国家自然科学基金面上项目,入选教育部新世纪优秀人才和北京市青年英才计划,培养了多名硕士生和研究生,达到了课题预期目标,圆满完成课题任务。


成果综合统计
成果类型
数量
  • 期刊论文
  • 会议论文
  • 专利
  • 获奖
  • 著作
  • 23
  • 39
  • 4
  • 0
  • 0
会议论文
相关项目
期刊论文 1 会议论文 5
张兆翔的项目