视觉伺服是利用图像反馈信息控制机器人运动的一种方法,对提高机器人的智能化水平与工作能力及其重要。本项目主要研究非结构化环境下机器人鲁棒视觉伺服的方法。针对点特征易受干扰等难题,将研究基于角度及面积等多特征的鲁棒视觉伺服方法。为了解决视觉伺服过程中目标偏离视野的问题,发展一套保证图像特征始终位于摄像头视野内的规划方法。针对目标特征几何信息未知、视觉系统参数及机器人物理参数标定复杂并且存在误差的情况,研究在未标定环境下的鲁棒伺服问题。本项目将利用非线性系统的输出反馈规律,结合参数自适应算法和在线估计,设计输出自适应视觉反馈控制器。同时在全面考虑机器人的非线性动力学的基础上,分析系统的稳定性和控制器的鲁棒性。最后通过六自由度机械臂手眼系统的位置及轨迹跟踪实验验证理论和方法的有效性。
visual servoing;unstructured environments;robust;image feature;
本项目标是在非结构化环境下,为机器人设计鲁棒视觉伺服系统。主要研究内容包括研究鲁棒的图像特征,并建立其广义图像雅可比矩阵及广义深度信息模型;研究针对目标特征几何参数未知,视觉系统参数未知,机器人运动学/动力学参数未知等多种情况下的机器人视觉伺服问题;研究视觉伺服控制的稳定性分析并通过真实机器人实验验证方法的有效性和鲁棒性。本项目圆满的完成了预期任务和指标。主要成果总结如下 研究了基于角度及面积等多特征的视觉伺服算法,并推广到了一般图像特征,并给出了其应用的两个必要条件。特别发展了一套基于曲线特征的视觉伺服方法,有效避免了点特征易受提取干扰的缺点。研究了软体机械臂视觉伺服的方法,为当前研究热点的软体机器人控制提供了一种可行方案。研究了未标定环境下基于视觉的机器人轨迹跟踪问题,并在考虑电机动力学的情况下,研究了未标定环境下机器人视觉位置伺服和轨迹跟踪问题。分别构建了包括刚体机械臂、软体机械臂及移动机器人等多个机器人系统的视觉伺服实验平台,并在上面开展了大量实验验证,验证了方法的鲁棒性和有效性。以项目为依托,发表了3篇SCI论文,9篇EI论文,申请发明专利3项,培养了硕士研究生6名。并获得上海市青年科技启明星奖励。