视觉导航是导航领域中的热点问题。视觉导航中景象匹配的图像特征和适配区域的选择方法很多,由于各个因素之间有的相互制约,有的相互依存,存在景象匹配区的计算结果出现冲突,甚至相互矛盾的问题。本项目拟在研究基于基准图与实时图成像差异模型和噪声模型的基础上,提出一套融合图像各类特征并可预测景象匹配导航性能参数的适配性能评价指标- - 适配区分度,通过融合诸如灰度方差、相关长度、独立像元数、纹理频谱分布特征、图像尺寸、相关面统计特征等,提取各种特征之间相互制约,相互依存的信息,构建新的特征描述方式,构建景象匹配的适配区分度指标体系,完成视觉导航的多特征适配区分度研究,并将该项目的研究结果应用于无人机视觉导航技术,以提高无人机视觉导航的可靠性和准确性,为我国无人机视觉导航技术的研究提供理论支持,对提高我国无人机导航的精度和可靠性具有重要战略意义。
Adaptation discrimination;Scene matching;Visual attention models;UAV navigation;Integrated navigation system
本项目旨在研究景象匹配适配区分度,提高无人机景象匹配视觉导航技术的可靠性和准确性,为我国无人机视觉导航技术的研究提供理论支持。经过三年努力工作,项目组在构建适配区分度性能评价指标体系、快速鲁棒景象匹配导航算法、视觉注意模型和组合导航半物理仿真系统等方面完成了相应研究内容。针对已有适配区特征指标片面性问题,提出特征指标适配置信度和不确定置信度的适配区分度度量方法,将多种特征指标进行综合,利用证据推理对置信度进行融合,解决不同特征指标对适配性分析的冲突性,得出匹配区适配综合置信度,并利用自建以及美国CLIF无人机航拍视频数据库,对各类被测图像适配性参数进行融合与决策,构建了广义景象匹配适配区分度性能指标,为景象匹配算法的评价提供依据。针对景象匹配适配区匹配算法的快速性、准确性等问题展开研究,提出了基于小波多分辨分析的多尺度邻域重构快速景象匹配算法、基于SVD-SURF的宽基线鲁棒景象匹配算法、基于关键帧与视觉地标景象匹配的连续视觉导航算法以及基于EKF的SLAM/景象匹配连续视觉导航算法等,仿真实验表明该类算法对图像的旋转、尺度变换及噪声不敏感,具有较强的鲁棒性,可有效减小位置估计误差并提高无人机景象匹配的定位精度。针对景象匹配视觉模型构建问题,通过引入有利于视觉导航的图像特征,以及基于信息熵、谱残余、自顶向下的视觉注意模型等与其他特征融合策略,进一步完善整合特征的提取,提出了更可靠的适配区分度表达形式,构成统一的表达体系。面向适配区分度评价指标,基于信息融合理论及相关决策理论,提出了多特征融合视觉注意模型,实验验证了新模型的有效性和准确性。对构建的适配区分度评价指标进行进一步分析和改进,提供针对不同的气候、空域的路径区分度评价指标,搭建了基于区域高清地图和法国SBG组合导航系统IG-500N的景象匹配/惯性组合导航半物理仿真系统,可实现基准图与实时图制备、实时图校正、经纬度与图像坐标转换、景象匹配导航信息解算、惯导误差修正等功能,为项目算法验证提供了实验平台。项目组出版专著1部,在学术期刊及国际国内会议上发表论文27篇,授权国家发明专利1项,申请专利4项,获得计算机软件著作权4项。项目组将继续无人机视觉导航研究,并将相关技术用于无人机感知与规避、大面阵相机高清成像等方面,使本项目研究成果推动我国无人机视觉技术发展。