要实现未知环境下移动机器人的视觉伺服,需要解决两个关键问题,即未知环境下的视觉感知和基于视觉的控制。为实现未知环境的感知,可以把环境分为平面区域(可移动区域)和障碍物区域。基于该假设,实现未知环境下基于视觉的平面信息提取是研究要解决的关键问题之一。分别对基于立体视觉的和单目图像序列的两类平面提取方法进行了研究。基于立体视觉的方法研究中,提出一种能同时完成平面检测和摄像机-机器人位姿标定的方法。在此基础上,提出基于地平面上两点的机器人位姿估算方法。通过适当选择移动机器人的状态变量,采用Backstepping设计了机器人控制率,误差动力学模型表明设计的控制率具有指数收敛的效果。在基于单目图像序列的平面检测中,通过对空间平面点的图像运动模型建模,提出了基于平面流场的检测方法。为了实现视觉伺服控制过程中特征点的可靠跟踪,对复杂环境下,考虑尺度、旋转、平移、视角、仿射、光照、模糊等变化,以及部分遮挡等情况下的特征跟踪及匹配稳定性进行了研究,提出了基于单演信号的多尺度、多信息融合的配准策略。在项目的支持下,参加国内外学术交流会议4人次,发表学术论文7篇,申请国家发明专利2项。
英文主题词planar detection;optical flow;visual servoing;wheeled mobile robot;feature extraction