环境感知与定位导航是无人驾驶车辆不可或缺的关键技术。如何借鉴人类视觉系统的环境感知学习能力,综合利用视觉计算、多传感融合、人工智能与机器人技术的最新研究进展,来提高自主行驶车辆的环境感知性能与定位导航精度具有重要的科学意义与应用价值。本课题旨在围绕无人驾驶车辆主动环境感知与精确定位导航需求,主要研究(1)异构图像数据一致性关联与配准;(2)交通标志的主动搜索与动态障碍物探测;(3)大范围精细空间地图的学习模型及其优化算法;(4)图像类信息与非图像类信息融合的精确定位策略;(5)高精度高分辨率的可行驶路径动态规划。经过本课题的组织与实施,预期提出多传感数据融合的交通场景知识获取与精确定位导航的有效途径,实现无人驾驶车辆基于知识的主动环境感知,将无人驾驶车辆的定位精度提高到分米级,为重大研究计划研制无人驾驶车辆验证平台提供关键技术支撑。
Video segmentation;Data registration;Detection and tracking;Fusion localisation;Map learning
动态视觉场景分析与鲁棒定位导航是移动机器人系统或无人车平台进行大范围环境主动感知与行为决策的核心技术。本项目主要围绕传感数据的鲁棒配准、静态背景分离、运动目标检测与跟踪、融合定位与地图学习等关键技术进行了研究,主要进展包括(1)针对传感数据中只有部分对应与噪声干扰情况下的鲁棒配准问题,提出了点云数据部分对应的刚体配准模型及其粒子滤波与仿生优化算法,并给出了配准算法的收敛性证明。我们的鲁棒配准算法能同时求解传感数据之间的重叠百分比与刚体变换参数,对初变换参数不敏感,并在二维栅格地图配准与融合上得到成功的应用。(2)针对复杂动态视觉场景中运动目标与静态背景分离问题,提出了集成多粒度线索的高阶条件随机场模型及其算法。我们的方法综合利用特征点轨迹对物体的形变鲁棒性与超像素表观属性的一致性,可以精确可靠地分离静态背景信息。其次,提出了融合图像与深度信息的场景流计算的变分框架及有效迭代算法,该方法在无纹理与遮挡区域的场景流推理,运动边界不连续性保持等方面具有良好的性能。(3)研究了一般性目标的自动检测与鲁棒跟踪方法,提出了视觉目标局部特征与非局部特征、及目标与周边背景之间的上下文关系的表示框架,利用视觉目标长时相关性及与其背景短时差异性,建立目标描述与判别相协同的鲁棒跟踪模型及自适应学习算法,显著提升了视觉跟踪的准确性与鲁棒性。其次,提出了一种集成区域特征描述的判别式显著性目标检测方法,该方法可以自动选择与融合区域特征描述,较其他算法具有更好的检测性能。(4)研究了融合多传感器的同时定位与导航地图创建(SLAM)方法,建立融合图像与深度信息的鲁棒定位与三维场景地图生产的系统框架,提出了姿态拓扑地图与测度地图相结合的环境表示模型及其鲁棒定位与地图学习的优化算法。其次,利用道路场景丰富的视觉信息,提出了一种利用视觉表观特征匹配的无人车定位方法,该方法已在SPRINGROBOT无人车平台上得到成功验证。