本项目研究在可穿戴系统中,使用全向视觉传感器,实现实时获取穿戴者在其所处未知动态场景中的三维运动信息和三维场景结构信息。由于场景中没有任何预先放置的标记,因此学者们提出使用场景中自然特征点的方法。但是这类方法的主要问题是只能处理纹理相对比较丰富的场景,对于纹理较少场景将无法工作,而且系统的实时性和鲁棒性不高,无法达到实用要求。针对以上问题,从充分地利用了场景中现有信息方面着手,我们在场景中提取直线特征,利用点和直线之间的互补性,提出了点线特征融合这一新方法,增加了系统可处理场景的范围,提高了系统的性能。研究内容包括实时在线全向摄像机标定;点线特征的鲁棒精确地提取与描述;基于点线特征融合的鲁棒跟踪;基于球面调和分析点线特征融合的实时运动分析与三维结构恢复等。通过以上内容的研究,建立一系列关于全向视觉的实时鲁棒算法,解决目前可穿戴视觉系统中的实时性和鲁棒性难题,丰富全向视觉的基本理论和方法。
英文主题词Omnidirectional vision; wearble computing; fusion of line and point features; real-time robust algorithm; motion analysis and 3D recovery