题名基于立体视觉的工业场景目标位姿测量研究
作者王喆
答辩日期2021-05-27
文献子类博士
授予单位中国科学院大学
授予地点中国科学院自动化研究所
导师景奉水
关键词位姿测量 立体视觉传感器 工业场景 目标分割 点云配准
学位专业控制理论与控制工程
英文摘要

对于工业场景中作业目标的位姿测量是工业自动化生产过程的关键环节。在工业场景下,传统的位姿测量方法往往依赖于人工安装在目标表面的靶标、定位标志等装置,需要人工介入,而且测量装置与作业目标存在接触,致使测量效率相对较低、自动化程度不足,难以满足当前工业自动化领域的需求。

立体视觉测量技术采用立体视觉传感器对测量目标进行数据采集,结合自动化的数据处理,可以实现自动化、无接触的位姿测量,具有信息量大、效率较高等特点,相比传统方法具有一定优势。然而,在工业场景中,由于光照条件较差、噪声干扰严重、测量目标纹理简单、目标与背景的对比度较弱,传统的视觉测量方法往往难以在工业场景下准确、稳定地应用。此外,实际的工业自动化生产任务在位姿测量系统的测量精度、测量范围、系统稳定性、部署效率和硬件成本等方面有着较高的要求,适用于一般场景的视觉测量系统往往难以满足工业场景的应用需求。因此,基于立体视觉的工业场景目标位姿测量问题具有重要的研究意义和工程价值。本文基于立体视觉测量技术,针对不同工业场景下的目标位姿测量问题展开研究,论文的主要工作如下:
1. 针对各类工业场景目标位姿测量任务中不同的精度和测量范围的需要,设计并搭建了面向工业场景的立体视觉传感系统,包括基于RGB-D视觉的全局视觉传感系统和基于线结构光视觉手眼系统的局部视觉传感系统。针对线结构光视觉手眼系统中,相机参数、结构光平面参数及手眼参数标定流程繁琐、装置复杂、效率较低的问题,提出了一种借助平面标定板的线结构光视觉手眼系统参数同时标定方法,标定过程高效、装置简单,可以满足工业场景的应用要求。
2. 针对工业场景下目标位姿估计任务中,图像数据量较小、工业场景环境杂乱、光照条件较差、测量范围较大、测量距离较远等问题,采用RGB-D立体视觉传感器采集场景图像,提出了一种适用于复杂工业场景的深度神经网络进行目标分割,该网络采用跳跃连接和共享池化因子等结构,可以在有限的训练数据下完成精确的分割,根据分割所得的目标点云,提出了一种结合目标朝向识别网络和多候选模型配准的位姿估计方法,选择目标朝向对应的候选模型进行配准,防止算法陷入局部最优,进而实现目标位姿的稳定估计。
3. 针对工业场景下近距离目标位姿测量任务中,测量效率相对较低、鲁棒性不足、易受光学噪声影响等问题,采用装有滤光器件的线结构光视觉手眼系统采集目标点云,缓解光学噪声的影响,同时,采用特定视角采样的模型点云作为位姿测量的参考模型,减少了位姿配准过程中的离群点,提升了配准的鲁棒性。在测量阶段,提出了一种基于点云主轴的粗配准方法,该方法不涉及逐点的特征计算,运算效率较高且不易受噪声影响,可以为后续的ICP精配准提供准确的初始位姿,进而准确、高效、稳定地完成目标位姿的测量。

4. 针对工业场景下大型目标位姿测量中,传感器的测量范围和精度往往相互制约,并且因无法自动识别目标特征而依赖于人工安装的标志物进行测量,造成的测量效率较低、精度不足、自动化程度有限的问题,采用由全局视觉和局部视觉组成的立体视觉位姿测量系统进行位姿测量。根据全局视觉系统采集的大范围数据,提出一种基于模型拟合的方法对目标进行分割和粗定位,并结合粗定位结果,采用局部视觉系统采集目标局部点云数据,通过降维的方式转换为二维灰度图像进行关键点检测和定位,并映射回三维空间完成位姿的精确计算,进而完成对大型目标位姿的大范围、高精度、自动化测量,满足工业场景中面向大型目标作业的应用要求。

最后,对本文的研究工作进行了总结,并提出了进一步的研究计划。

语种中文
页码138
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/44940]  
专题自动化研究所_复杂系统管理与控制国家重点实验室_先进机器人控制团队
推荐引用方式
GB/T 7714
王喆. 基于立体视觉的工业场景目标位姿测量研究[D]. 中国科学院自动化研究所. 中国科学院大学. 2021.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace