本课题研究重点在于对人的力/触觉感知的生理因素分析的基础上,研究遥操作机器人虚拟环境的分布式和主动式力觉建模理论和方法,建立基于视觉和力觉反馈的虚拟环境,解决视觉再现和力觉再现的协调问题;提出临场感遥操作机器人虚拟环境模型参数的在线修正方法,利用视觉信息重构虚拟环境图形的基础上,结合力觉、触觉、运动觉等非视觉信息在线修正虚拟环境的参数。过去,研究者对具有临场感的虚拟环境的研究大多侧重于单独的视觉再现或者力觉再现,在视觉和力觉再现的协调性研究和人的力觉生理感知对视觉的增强改善性研究不足。我们通过对力的生理和动态分布建模以及在线模型参数的研究,提高预测图形和预测力反馈的准确性,增强虚拟环境的真实性和和谐性,解决大时延对遥操作机器人系统稳定性和操作性能影响的难题,从而使基于临场感虚拟现实的遥操作机器人更加有效的应用于军事、医疗、教育等领域。
虚拟力触觉再现的真实性和稳定性是力触觉再现研究的两个关键问题。本课题设计了无源式的柔顺性力触觉实验装置及系统,首先对人的力触觉感知的生理和心理特性进行了实验研究,分析了影响人的力觉感受的因素;针对柔性对象,建立了基于物理意义的弹簧质点模型及多点、线、面接触下的力/变形计算方法,基于DELTA手控器建立了虚拟力觉再现系统;提出了一种基于时间序列的虚拟力预测方法,解决视觉和力觉再现刷新频率不一致的问题。从虚拟力的建模和实现方法两方面,提高了的力觉显示的刷新频率,增强了力觉再现的真实性。为适应真实环境下,环境对象变化,但预先建立虚拟模型与真实环境不一致的问题,提出了一种变增益参数的方法,对虚拟环境模型进行在线修正,保证了虚拟力触觉再现的鲁棒性和适应性。针对虚拟硬接触中的容易出现的系统不稳定问题,提出了一种基于能量补偿的虚拟力控制方法;在增强人的力觉感受的稳定性方面,提出了磁性体模型。通过实验证明了方法的有效性。