基于单目视觉的实时同步定位与地图创建(SLAM)是一个有着巨大发展潜力的研究方向,在机器人定位导航、增强现实等领域有着广阔的应用前景。然而,文献中已有的计算框架和相关方法大多只适用于小尺度静态场景,当处理大尺度动态场景时一般无法有效区分静态物体和动态物体,同时随着场景中特征数量的增加,这些方法还面临着计算复杂度高、数据关联不确定性高、鲁棒性低、累积误差等问题。因此,本项目拟展开大尺度动态场景下的单目视觉实时同步定位与地图创建方法研究首先创新地将图论与三维计算机视觉理论相融合,搭建一个适用于大尺度动态场景的单目视觉实时SLAM计算框架;然后针对该框架下的关键难点,给出实时鲁棒的数据关联方法、融合电子罗盘和三维定位技术的累积误差抑制方法以及系统重定位方法,并建立一个能够有效区分静态物体和动态物体的动态环境地图模型;最终建立一个适用于大尺度动态场景的单目视觉实时同步定位与地图创建原型系统。
Monocular SLAM;Camera Calibration;System Calibration;Inertial Measurement Unit;System Relocalization
基于单目视觉的同步定位与地图创建(simultaneous localization and mapping, SLAM)是当前计算机视觉领域中的一个研究热点,在机器人定位导航、增强现实等诸多领域都有着非常广阔的应用前景。本项目围绕大尺度动态场景下的单目视觉实时同步定位与地图创建展开了系统性研究,并取得如下成果(1)摄像机标定与系统标定针对SLAM系统中的摄像机标定问题,提出了一种鲁棒的一维线性加权标定算法。针对IMU(惯性传感器)-SLAM标定问题,提出了一种基于部分惯性传感器信息的组合系统标定方法,该方法针对中低档惯性传感器的航向角输出精度相对较低的问题,使用惯性传感器输出的横滚角、俯仰角以及摄像头摄取的图像信息实现IMU-SLAM系统自动标定。(2)基于惯性传感器信息的单目视觉同步定位与地图创建提出了一种基于惯性传感器加速度信息的实时单目视觉同步定位与地图创建方法,以及一种基于惯性传感器横滚角和俯仰角的实时单目视觉同步定位与地图创建方法。这两种方法可以有效地抑制SLAM系统运行过程中产生的累积误差,并降低惯性传感器测量误差对SLAM系统稳定性的影响。此外,针对实际系统中摄像机与惯性传感器的数据同步采集问题,提出了一种利用多状态扩展卡尔曼滤波的混合定位方法,有效降低了异步数据对系统定位精度的影响。(3)系统重定位提出了一种基于分层二分图模型的实时SLAM系统重定位算法。该算法构建的二分图模型综合利用了图像特征与地图特征的时间和空间约束,有效地提高了系统重定位的鲁棒性。(4)单目视觉实时同步定位与地图创建系统研发了一套适用于大尺度动态场景的基于惯性传感器的单目视觉实时同步定位与地图创建原型系统。