CIOMP OpenIR
基于立体视觉的空间动态目标测量与跟踪算法设计
高瞻宇
学位类型博士
导师吴清文
2018
学位授予单位中国科学院大学(中国科学院长春光学精密机械与物理研究所)
学位授予地点中国科学院大学(中国科学院长春光学精密机械与物理研究所)
学位名称博士
关键词相机自标定 立体匹配 目标跟踪 视觉导航
摘要计算机视觉通过分析和理解图像来理解周围环境。深度感知是计算机视觉的重要组成部分,深度感知可以使机器人感知三维空间环境,并实现自主导航。在计算机视觉中,深度感知是通过立体匹配来实现的。立体匹配是指两个具有水平位移的相机获取的图像对中像素之间的对应关系,并通过计算对应像素之间的视差得到深度信息。提出的立体匹配方法,可以实时恢复高度准确的视差。该方法结合了使用输入图像的梯度和Census变换计算的像素相异性度量,采用边缘保持双边滤波器的高效近似的非迭代局部视差选择方案,视差细化技术通过不断迭代细化,并通过惩罚与使用局部视差梯度产生的视差估计不一致的视差来消除误匹配像素,提高了视差估计的准确性。使用了Middlebury立体性能基准进行评估,所提出的方法在训练图像集和测试图像集的测试中分别排名前五位,以立体匹配的总体准确性来衡量,在标准图像分辨率下视差的绝对误差大于2个像素。同时,该方法对于15个训练集图像对中的3个图像对以及15个测试集图像对中的3图像对有着最低的错误率。所提方法在照明条件变化或相机曝光不同引起的辐射畸变的情况下实现高精度、实时性的鲁棒匹配。所提出的方法适用于机器人导航和三维重建等应用。设计了一种基于该方法的的立体视觉跟踪系统来估计空间动态目标的位置、速度和运动方向的系统。该系统包括立体视觉测距,目标检测和跟踪,跟踪误差最小化。这些误差主要是由于立体像素匹配过程中的图像量化限制和像素误匹配。虽然更复杂的匹配算法可以得到更精确的三维重建结果,但是时间成本很高。该系统结合简单的立体匹配算法,以及基于扩展卡尔曼滤波器的预测校正方法,使用代表空间目标运动和立体测量的概率模型的合适选择,最小化与立体测量相关的跟踪误差,提高目标状态估计的准确度。模拟实验结果表明了该系统的有效性,在不同的运动条件下,可以得到目标状态的精确估计。
文献类型学位论文
条目标识符http://ir.ciomp.ac.cn/handle/181722/61625
专题中国科学院长春光学精密机械与物理研究所
推荐引用方式
GB/T 7714
高瞻宇. 基于立体视觉的空间动态目标测量与跟踪算法设计[D]. 中国科学院大学(中国科学院长春光学精密机械与物理研究所). 中国科学院大学(中国科学院长春光学精密机械与物理研究所),2018.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
基于立体视觉的空间动态目标测量与跟踪算法(10228KB)学位论文 开放获取CC BY-NC-SA请求全文
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[高瞻宇]的文章
百度学术
百度学术中相似的文章
[高瞻宇]的文章
必应学术
必应学术中相似的文章
[高瞻宇]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。