CORC  > 自动化研究所  > 中国科学院自动化研究所  > 毕业生  > 博士学位论文
题名基于深度特征的机器人视觉定位研究
作者管培育
答辩日期2022-05-20
文献子类博士
授予单位中国科学院自动化研究所
授予地点中国科学院自动化研究所
导师谭民 ; 曹志强
关键词视觉定位 语义SLAM 重定位
学位专业控制理论与控制工程
英文摘要

    服务机器人良好的定位能力是其自主运动的前提。由于视觉传感器适用范围广、信息量丰富、成本低等特点,视觉定位受到普遍关注。利用深度网络对视觉图像信息进行表征,为服务机器人在视角、光照变化以及复杂环境下实现鲁棒的定位提供保障,具有重要的理论研究意义和广泛应用前景。本文结合未知环境和已知地图情形,面向基于深度特征的机器人视觉定位开展研究,论文的主要内容如下:
    首先,介绍了基于深度特征的视觉定位研究背景与意义,从未知环境下的视觉SLAM、基于已知地图的视觉定位两方面进行现状综述,并对论文内容和结构进行了介绍。
    其次,针对未知环境下传统视觉SLAM方法中手工设计的特征点对环境变化较为敏感等问题,提出了一种基于点和物体级语义特征的视觉同时定位与建图方法PO-SLAM。使用卷积神经网络从图像中提取物体级的语义特征,并利用深度图像对物体检测框进行快速几何分割以将物体和背景分开,促进同一帧内的点-物体特征关联,进而结合帧间点-点特征关联和帧间物体-物体特征关联,在优化过程中施加点和物体的约束限制匹配点的语义信息相同,提高数据关联的准确性,同时施加物体之间的相对位置不变性约束提高定位精度。此外,还根据点-物体关联结果去除与动态物体关联的特征点,提升视觉定位对动态环境的鲁棒性。数据集和实际场景中的实验表明了所提方法的有效性。
    第三,提出一种基于空间特征变换的场景坐标回归网络SFT-CR,通过对机器人所在环境进行隐式表征实现相机重定位。一方面,针对标准卷积操作对视角变化引起的图像几何变换缺乏内在不变性的问题,设计了空间特征变换网络,对卷积特征进行显式变换,有效提升了深度特征对几何变换的鲁棒性进而提高坐标估计的精度。另一方面,构建了基于最大似然的损失函数,引入坐标估计不确定度,使得场景坐标回归网络除了输出图像中2D像素对应的3D坐标,还提供各坐标的不确定度。基于坐标不确定度对得到的2D-3D点对进行筛选,并根据PnP算法求取相机的6D位姿,提高了定位的准确度和效率。此外,在特征提取中引入CoordConv操作以提高弱纹理区域特征的可区分性。所提方法的有效性在数据集上进行了验证。
    第四,提出了基于多任务学习的视觉位置识别方法MTA。针对现有位置识别方法中基于三元排序任务的训练方式忽略邻近位置图像全局特征分布的紧凑性,导致泛化性较差的问题,引入了一个新的二分类任务,将查询图像-正样本对构成正类,查询图像-负样本对构成负类,通过二分类损失约束所有正样本对特征距离小于所有负样本对特征距离,并结合现有的三元排序任务联合训练全局特征提取网络,增强图像全局特征位置内的紧凑性和位置间的可区分性,从而提高了模型的泛化能力。同时,在全局特征提取网络中嵌入注意力模块,使得网络在特征聚合时更加关注对位置识别有用的区域,提高了图像全局特征的鉴别性。所提方法在数据集和真实场景中进行了实验验证。
    第五,提出了一种基于离线混合地图的服务机器人定位软件架构,在ROS框架下实现了所提PO-SLAM与重定位方法SFT-CR和MTA的集成。根据环境区域大小和任务需求,基于MTA方法大规模场景下的适应性以及SFT-CR方法定位的精确性,构建了显式和隐式相结合的混合地图,其中,显式地图包含PO-SLAM提取的关键帧局部特征点与对应位姿、3D地图点以及MTA提取的关键帧全局特征,而隐式地图通过对定位精度要求较高的重要区域训练场景坐标回归网络予以建立。当PO-SLAM中局部特征跟踪失败时,机器人利用MTA、SFT-CR方法恢复位姿,实现可靠稳定的定位,其有效性通过室内办公环境下的导航实验进行了验证。
    最后,对本文工作进行了总结,并指出了需要进一步开展的研究工作。
关键词:视觉定位,语义SLAM,重定位,场景坐标回归网络,视觉位置识别,离线混合地图

语种中文
页码138
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/48775]  
专题毕业生_博士学位论文
推荐引用方式
GB/T 7714
管培育. 基于深度特征的机器人视觉定位研究[D]. 中国科学院自动化研究所. 中国科学院自动化研究所. 2022.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace