位置:成果数据库 > 期刊 > 期刊详情页
动态场景下基于视差空间的立体视觉里程计
  • ISSN号:1008-973X
  • 期刊名称:浙江大学学报(工学版)
  • 时间:0
  • 页码:1661-1664
  • 语言:中文
  • 分类:TP242.62[自动化与计算机技术—控制科学与工程;自动化与计算机技术—检测技术与自动化装置]
  • 作者机构:[1]浙江大学信息与电子工程学系,浙江杭州310027, [2]杭州电子科技大学计算机学院,浙江杭州310018
  • 相关基金:国家自然科学基金资助项目(60534070);浙江省科技计划资助项目(2005C14008).
  • 相关项目:基于机器视觉传感器的月球车导航和控制
中文摘要:

针对实际的复杂动态场景,提出了一种基于视差空间的立体视觉里程计方法.利用SIFT特征点的尺度和旋转不变性及一些合理的约束条件,实现左、右图像对和连续帧间的特征点匹配和跟踪.通过结合了RANSAC的最小二乘估计滤除运动物体上的干扰特征点,得到较为准确的运动参数的初始值,在视差空间中推导出视觉里程估计的数学模型,通过最小化误差函数得到最终运动估计.实验结果表明,该算法在室内外存在运动物体的复杂动态场景中都具有较传统方法更高的精度.

英文摘要:

A novel stereo visual odometry algorithm based on disparity space was proposed for real dynamic environments. Successive frames of stereo images were used. The accuracy was obtained in both feature matching and tracking using the scale and rotation invariance of the scale invariant feature transform (SIFT) feature points together with some reasonable constraints. Least-squares algorithm with random sample consensus (RANSAC) was used to remove disturbing feature points on moving objects and obtain the initial estimation. Then a mathematic model for accurate and robust visual odometry estimation was derived from disparity space. The motion estimation was obtained by minimizing the error function. Experi- mental results show that the algorithm achieves better performance under indoor and outdoor environments with independent moving objects.

同期刊论文项目
期刊论文 64 会议论文 18 专利 8
同项目期刊论文
期刊信息
  • 《浙江大学学报:工学版》
  • 北大核心期刊(2011版)
  • 主管单位:教育部
  • 主办单位:浙江大学
  • 主编:岑可法
  • 地址:杭州市浙大路38号
  • 邮编:310027
  • 邮箱:xbgkb@zju.edu.cn
  • 电话:0571-87952273
  • 国际标准刊号:ISSN:1008-973X
  • 国内统一刊号:ISSN:33-1245/T
  • 邮发代号:32-40
  • 获奖情况:
  • 2000年获浙江省科技期刊质量评比二等奖,中国期刊方阵“双效”期刊
  • 国内外数据库收录:
  • 俄罗斯文摘杂志,美国化学文摘(网络版),波兰哥白尼索引,德国数学文摘,荷兰文摘与引文数据库,美国工程索引,美国剑桥科学文摘,英国科学文摘数据库,日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版)
  • 被引量:21198