视觉伺服控制是利用图像的视觉信息反馈控制机器人运动的方法,对智能机器人完成高智能作业极为重要。视觉伺服控制时必须把在视觉系统获取的信息变换到机器人系统,而实现这一变换必须校准视觉系统的内部参数,和视觉系统与机器人系统间的坐标变换。由于校准过程复杂需要较高的成本,为了简便地实现视觉反馈,有必要研究一种直接可以在非校准环境下应用的视觉反馈控制方法。本课题将研究一个新的算法在线估计未知视觉系统的内部参数和坐标变换矩阵,以实现非校准视觉反馈控制。我们将利用非线性系统的输出自适应控制对系统进行建模,结合自适应算法和在线估计,设计稳定可靠,结构简单,实现容易的控制方法。在全面考虑机器人的动力学特性的基础上,分析系统的稳定性和控制器的鲁棒性,并通过机器人实验验证理论和方法的有效性。
视觉伺服是一个用视觉传感器提供的信息来控制动态系统的方法,近年来正受到广泛的重视。现存方法受制于相机参数已知及机器人非线性动力学被忽略的限制。未标定相机的视觉伺服多年来一直是机器人控制中的最困难问题之一。以前一直没有完全的解决方法。 深度信息是控制器设计的一个瓶颈,我们提出了"深度独立交互矩阵"这个新概念从而避免了在控制器设计中利用深度信息。同时,我们设计了一个新的自适应算法来在线估计未知参数。基于"深度独立交互矩阵"和新的自适应算法, 我们设计了一系列方法来解决机器人视觉伺服领域里的各种问题。包括在未标定的手眼与固定相机系统中的位置伺服和跟踪问题,以及基于特征点和特征直线的视觉伺服问题。在考虑机器人非线性动力学情况下,我们用Lyapunov理论严格证明了系统在提出方法控制下的渐进稳定性。系统的性能通过一个3自由度的机器人的实验得到了证实。 我们的工作在机器人视觉伺服领域里取得了突破性贡献。通过"深度独立交互矩阵",我们建立了视觉伺服的一个新的研究方向。我们的工作被国际社会高度认可,并且发表了多篇文章在IEEE机器人期刊和国际主要机器人会议。