首页 PVANet:针对弱纹理工业零件的像素级6DoF位姿估计方法

PVANet:针对弱纹理工业零件的像素级6DoF位姿估计方法

举报
开通vip

PVANet:针对弱纹理工业零件的像素级6DoF位姿估计方法 &nbsh1;   PVANet 针对弱纹理工业零件的像素级6DoF位姿估计方法     杨 纯,陈 权,王 涛 (广东工业大学 计算机学院,广州510006 ) 0 引言 位姿估计在机器视觉领域扮演着十分重要的角色,尤其是一些应用场景通过使用视觉传感器进行导航,增强现实等操作,需要找到现实世界和图像投影之间的对应点。比如,在工业作业场景的抓取任务中,经常会遇到几种工...

PVANet:针对弱纹理工业零件的像素级6DoF位姿估计方法

&nbsh1;

 

PVANet

针对弱纹理工业零件的像素级6DoF位姿估计方法

 

 

杨 纯,陈 权,王 涛

(广东工业大学 计算机学院,广州510006 )

0 引言

位姿估计在机器视觉领域扮演着十分重要的角色,尤其是一些应用场景通过使用视觉传感器进行导航,增强现实等操作,需要找到现实世界和图像投影之间的对应点。比如,在工业作业场景的抓取任务中,经常会遇到几种工件堆放散乱、待抓取物体的 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 面纹理信息不够丰富的场景,由于材质相同,光线在金属介质表面的传播性质,以及在光线不足的情况下,甚至会因为彼此间遮挡产生阴影,导致工件边缘的重要信息较为模糊,特征提取不够突出,从而严重影响到指定任务的抓取执行。

现如今的位姿估计方法大都在公用数据集上具有很好的鲁棒性,由于场景的改变存在诸多不确定性问 快递公司问题件快递公司问题件货款处理关于圆的周长面积重点题型关于解方程组的题及答案关于南海问题 。如Tless 等数据集往往体量过于庞大,He等人提出的方法在这些数据集上表现良好,但是受硬件因素的约束导致训练困难,虽然网络效果很好,却因网络设计复杂而难以快速部署到机器人系统,从而影响实际作业效率。而其他的一些数据集、如linemod 等存在遮挡或截断等特点,且过于生活化,表面纹理色彩都很丰富,无法满足一些特殊的场景需求、如本文探讨的金属工件抓取问题,为此本文从数据集的制作开始,结合其他网络的优点进行弱纹理金属工件的6DoF 位姿估计的实用型研究。

本文针对上述问题,拟从单个RGB 图像的角度,结合注意力机制,将像素级上效果良好的一种方法扩展到一个新的位姿估计分支PVANet,使其用于工件的精确抓取任务。本文的主要贡献是将工件的小型数据集成功拟合进这个网络,对网络模型的部分结构做出重要调整,优化精确度。

将注意力机制结合深度学习网络进行训练的方法主要是通过掩码来实现,通过不断地学习,使深度神经网络学习到数据集中每一张图片中感兴趣的区域。一些网络挖掘到了通道注意力机制的优点,指出不同通道的特征图的作用权重不同会严重影响结果,Jaderberg 等人提出的空间注意力机制,发现包含对象的检测区域相较于其他背景信息的重要性要大很多。鉴于这些优点,很多研究提出了结合通道注意力和空间注意力的方法,充分发挥两者的重要性,并将其功能进行结构化设计,本次研究合理利用了这一优点来提取了局部信息。

分析可知,对于这种距离相机视点较远的情况,深度信息已经不太可靠,相较于一些使用3D 定位和旋转的方法,本文从pixel-wise 或者patch-wise 上进行投票选出2D 关键点的方法,如图1 所示,这在Yu等人的方法中也有体现。但是实验中忽略像素点和关键点之间的距离对假设偏差影响不大的情况,此后将采用(Effective Perspective-n-Point,EPnP)根据2D-3D 对应的方法进行位姿估计,在原工作基础上提出一些改进,结合目标检测和位姿估计的端到端通道,通过二维RGB 图像和相关的3D 模型建立对应关系,回归位姿参数和。本文主要贡献如下:

图1 投票后选出2D 关键点Fig.1 The selected 2D keypoints after voting

(1)使用较少的数据模态预测弱纹理工件位姿,弥补了位姿估计数据集在工业零件方面的空缺。

(2)分析网络深度和数据集规模的关系,将注意力机制融入像素级投票网络,并进行一些重要的调整使其能够更好地进行迁移使用。

(3)改进后的方法在自定义数据集和Linemod上的评估精度在0.9 以上,达到工业应用要求,且可视化效果更好。

1 相关工作

目前比较成熟的位姿估计方法包括但不限于基于对应、基于 模板 个人简介word模板免费下载关于员工迟到处罚通告模板康奈尔office模板下载康奈尔 笔记本 模板 下载软件方案模板免费下载 、基于投票这三种,并且具有比较完整的实现过程。其中,基于对应的方法通过隐式地回归3D 点在2D 图像上的若干投影点,再使用PnP进行位姿细化。基于模板的方法将模型的RGB图像结合精心设计的CNN 取得很好的位姿估计的结果。使用投票策略的方法中,最重要的是充分利用像素信息,Brachmann 等人充分利用每一个像素来产生一个3D 坐标轴,Peng 等人通过像素投票生成2D 关键点,另一部分则是使用霍夫投票获得很好的结果。这些方法通过直接或间接地从RGB 图像中恢复6D 位姿。另一个大的分支是在卷积网络中结合深度信息,自从PointNet 系列的重大创新后,直接通过点云信息进行位姿估计的方法被提出,而Wada 等人使用该方法在处理弱纹理目标时甚至都能获得很好的效果,但有关的研究一般是在大型公用数据集上不断提升算法的精确度,这在应用于实际场景时就会出现如下类似问题的探索。

对于工业场景中常见的无纹理金属工件,在光照等因素的干扰下,RGB 图像中可用的信息很少,目前主要的解决 办法 鲁班奖评选办法下载鲁班奖评选办法下载鲁班奖评选办法下载企业年金办法下载企业年金办法下载 是利用图像中边缘像素的底层特征进行计算,如Zhang 等人提出使用多阶段细化的方法实现简单的抓取任务。由于金属在不同光照角度导致粗糙表面反光使得RGB 不可忽视,充分考虑这些RGB 图像和模型本身携带的信息能够在一定程度上降低成本,仅从RGB 图像检测6D 位姿对于其他类别的机器人应用也是同样重要。例如从单目稀疏视角考虑直线轮廓之间的相互关系作为描述金属零件的高级几何特征,放弃利用像素这一重要元素,或是在有限样本数的单RGB 研究上给出了很好的示例,但目前仍是在具有丰富纹理的常见生活物品对象上做进一步的提升。本文的研究对象是弱纹理的金属工件,从像素级进行探索,并使用投票对遮挡物体进行位姿预测。

投票预测局部不可见点的位置时,先根据3D模型点中的关键点投影到2D 像素平面,目前已有方法提供了一些3D 特征描述子的实验效果,表明都能检测一定数量的特征点,但是如果限制特征点的数量进行投影,用于表面信息本就不丰富的工件则情况不一定很好。一些基于点对特征的方法试图通过使用点云上的少量点对构成描述子进行位姿估计,如Drost 等人、Papazov 等人提出的全局建模、局部匹配,Hinterstoisser 等人优化前者也使用到的PPF 描述子来达到最佳效果,但这些方法对于场景简单、成本低的数据来说很有可能导致过拟合,且需要使用点云扫描仪器进行额外的数据采集。另外一些使用随机森林的方法,通过霍夫投票逐像素投票,或者使用深度学习的方法提取特征,甚至结合深度信息,这些密集的2D-3D 对应虽然对遮挡场景具有鲁棒性,但是网络体量大,鉴于此,本文采用FPS 随机选择8 个点作为候选关键点的方法,保证每次的点都不一样,减少人为因素的影响,将RANSAC 方法重新定义为投票方法,通过逐像素迭代淘汰假设关键点的方法对2D关键点进行投票,结合了密集融合的方法和基于关键点的方法的优点,针对特征提取不够全面的问题,有效融合了注意力机制,进行网络效益的提升。

2 工业弱纹理零件位姿数据集的获取方法

2.1 方法概述

在进行位姿估计之前,首先要构建符合场景并带有位姿标签的数据集。目前很多先进的方法都是在公用数据集上进行精度提升,这些通用措施导致的一些局限性无法扩展到其他特殊场景。

本文方法使用Glocker 等人提出的主要步骤进行多边形模型的3D 重建,并将其用于单个物体的检测。相较于其他流行的模型重建方法,这是为数不多的利用物体表面信息进行重建的手段,在小场景的重建上相较于其他算法取得更好的效果,和Weise 等人的研究类似,这使得一些操作虽然枯燥、但容易着手,具体的标注流程如图2 所示。由图2 可知,获取视频流序列中间的100 s,通过对这些序列进行场景稠密重建,截取包含工件的一定范围场景后,导入工件的CAD 模型进行粗略关键点匹配,再利用ICP 进行细化后,手动调整工件模型位姿,并根据获取的位姿对工件模型进行投影获取标签。研究可知,初始场景为包含4 个形状不同、纹理和材质相同的工件随意摆放在背景杂乱的工作台,数据的采集过程是将相机安装在机械臂末端,通过机械臂的运动来采集数据。

图2 数据集的标注过程Fig.2 Annotation process of data set

实验使用的都是真实数据集,经测试按照随机3:1 的比例分别抽取数据制作训练集和测试集进行训练和测试时效果最好,在无合成数据的情况下,能够尽量维持不同帧之间标签的语义相关性。为了得到mask 这一重要因素,一些算法通过实例分割把对象从场景中分离出来,但是目前的分割网络为了得到精度更高的结果,模型体量都比较大,这在工业应用上将显著影响作业效率,本文在实际使用中利用标注的位姿,通过模型投影可直接获得。

2.2 位姿描述

对姿态的描述是机器人进行位姿估计的基础,包括欧拉角、旋转+平移,以及四元数表示。

对于3D 空间的任一参考系,任何其他的坐标系都可以用3 个欧拉角表示,即通过绕着,,这3个轴旋转的3 个角度进行组合表示,由于参数的显式意义,这种表示是直观的,并且旋转向量与旋转矩阵的相互转换可以用罗德里格斯公式来解决,但是在一些情况下却不能实现平滑插值,甚至还会产生万向节死锁问题,通常在有关旋转的应用场景中基本不使用欧拉角来旋转,而是使用上述后2 种进行表示,相互之间也可进行转换。

相较于旋转矩阵需要满足单位正交的限制,如何在训练目标中加入该限制条件是难点之一,在这项工作中,本文使用的是四元数(1)这种计算量偏小的位姿表示:

在进行网络训练前,本文对真实位姿进行预处理,在数据处理的过程中,尤其要注意实部与虚部的相对位置关系,否则回归研究后的结果就会出现如图3 所示的由于旋转矩阵转换为四元数时使用了函数的默认顺序导致的位姿偏差过大的问题。

图3 可能出现的偏差过大的问题Fig.3 Possible problems of excessive deviation

3 本文方法

3.1 结合注意力机制的PVNet 网络架构

图4 为经过调整后的模型。图4 中,以ResNet-18为主干网络,增加注意力机制强化特征提取性能,网络的输入为自定义数据集,输出为掩膜分割和向量,然后用RANSAC 投票出关键点,最后使用PnP 回归位姿。和Peng 等人的相关研究类似,使用预训练的ResNet-18 为主线,重点在预测像素的方向、而不是从图像中直接回归关键点的位置,即网络的主要作用是预测向量场和生成对象标签,通过重视目标的局部特征,减轻了杂乱背景的影响。对于图像中的任意一个像素点,坐标表示为(,),将其到目标对象的2D 关键点x的方向定义为向量v,即:

图4 本文网络管道说明Fig.4 The network pipeline in the paper

其中, x是通过最远点采样方法获取的模型3D 点通过投影矩阵获得,的坐标是根据式(1)所得姿态,结合相机内参通过向投影矩阵公式(3)带入计算得到,即:

其中,(,,)表示世界坐标系下点的位置,为本实验中D435 系列相机对应的内参矩阵。

给定语义标签和单位向量,物体的所有像素都对通过基于投票的RANSAC 机制生成关键点假设进行投票,这些投票中会有置信度分数较高的一些假设(大于设定的阈值),通过RANSAC 策略,使用循环迭代计算出来的最好模型再一次生成假设坐标并进行关键点的投票,用这些假设表示图像中关键点的空间概率分布是很可靠的,因为这样与更多的预测方向重合,局部不合适的点的投票只占少量。

本文在对原始网络进行迁移使用的时候,发现其本身效果已经具有一定的准确性,可视化结果详见实验部分,但是网络庞大,本文在保持原来方法的主要步骤的情况下,对局部结构进行了调整。对此可给出研究分述如下。

(1)对一些效果不明显的设计进行了更改,具体但不仅仅包括将原来在skip connection 中间部分的Residual block with dilated conv,改为普通的3×3卷积,该卷积结构试图通过空洞卷积的参与来增加感受野范围,学习到更多的特征,然而对于本文这种远离视角的小物体分割,特别是尺寸都差不多的工件来说有弊无利,dla 可能导致局部信息缺失,颜色纹理相近的工件特征相关性匮乏,从而影响最终的分类结果。

(2)将注意力机制模块结合进ResNet-18 进行特征提取,其有效性已经在某些工作中体现得很充分,本文的工作是在网络的第一层,即使用最大值池化前、最后一层,即使用均值池化前加入注意力机制模块,而不是放在残差块中,并且是用ImageNet的预训练权重字典,以充分提取局部特征,不忽略每一层特征图在训练时的不同作用比率。值得注意的是,注意力用在位姿估计的场景还不是很广泛。

(3)PVNet 工作在对ResNet-18 进行fine tuning时,是将最后的1×1 之前的所有的FC 改为Conv,这么做是考虑到FC 如果过多,且形状都不小,容易导致内存消耗严重。但是一些研究中表明适当的FC 设计可在模型表示能力迁移过程中充当防火墙的作用,不含FC 的网络微调后的结果要差于含FC的网络,事实确实如此,特别是本文的自定义数据集和原始结构使用的公用linemod 数据集的对象完全不一样的情况下,FC 可保持较大的模型容忍度,从而保证模型表示能力的迁移,因此本文又一次强调在合适的情况下ResNet-18 的最后一层FC 设计的重要性,以及允许部分FC 存在。另外,ResNet 在很多应用场景中都占有很重要的一部分比重,但是相对于其他很多领域的数据集,所有位姿估计的数据集体量都非常地大,如何减少内存浪费是很重要的事情。

当然网络的大部分还是值得本文借鉴的,输入图像大小为3,当网络的特征图的大小为8×8 时,不再为了提高分辨率而对特征图进行下采样,丢弃后续的池化层,这在一定程度上阻止了后续无意义的操作导致的消耗。

3.2 损失函数设计

为了训练网络,本文使用了比较稳妥的损失函数来联合训练包围框位置、分割、投票、框内的姿态。形式上,损失计算包含2 部分,投票的损失计算使用Smooth损失函数, L、即交叉熵损失,可用于训练语义标签,实验中使用的损失函数定义如式(4)所示:

其中,Smooth是Smooth损失,是与损失的结合,L是该分类问题中的常见解决办法。

4 实验与分析

本文研究的对象是金属工件,为了提高分拣抓取等操作的精确度,针对这些弱纹理工件进行6DoF位姿估计。实验使用的数据集经过格式转换,以适配一些算法的数据读取接口。实验中涉及的高性能计算的网络训练部分均在2080Ti 上进行。

研究可知,PVNet 中,输入RGB 图像,通过基于RANSAC 的投票方法给所有向量、即像素指向每个关键点的方向进行打分,由此得到分数高于一定阈值的关键点的空间分布,详细的介绍参见文献[2]。

本文的方法步骤也是如此,但是基于本文对数据集更改的考虑、即目标对象完全不一样,以及新数据集中检测对象的视点较远的情况,对网络进行了一些改动,使其更好地适用于本文的工作。

由于数据集中的数个初始研究对象为3D 对称物体,本文实验中使用了由Xiang 等人提出的ADD-s 指标,用来评估网络输出位姿和真实位姿转换后的2 个模型对应点之间的平均距离,即当这个距离小于模型直径的10%时,就认为估计出来的位姿是正确的,对于这种立体几何形状的对象直径则根据模型最远对角点的距离进行计算。为此,这里将给出剖析阐释如下。

(1)Linemod 数据集上的性能。由于本文的方法大多集中在场景不同于BOP 等数据集的弱纹理场景进行位姿估计,而且主要是使用RGB 进行这项工作,因此本文对比了使用Depth 后的先进网络效果、原网络进行较大改动后的效果、以及使用本文的方法进行微调后的更好的结果,优化后的算法在Linemod数据集上的性能表现见表1。由表1 可知,相较于PVNet,增加了注意力机制后的效果有所提升。

表1 和其他算法在Linemod 数据集上的表现相比较Tab.1 Comparison with the performance of other algorithms on Linemod data set

(2)真实数据集上的性能。对比网络深度的实验效果如图5 所示。图5 中,绿色框表示ground truth,蓝色框表示网络输出结果。图5 从(a)~(d)依次为ResNet50(工件一)、ResNet34(工件一)、ResNet-18(工件二)、ResNet-18(工件一),其中ResNet-18 为调整后的网络,层数变动不大。仍需指出的是,图5(a)~(d)中,左侧图为经过网络调整后的可视化结果,右侧图为意在方便比较进行的相同比例放大。图5 的结果表明随着网络的加深,效果并没有较大的改进,但是使用较少的残差块,对网络适当地剪枝,得到的效果更好。调整后的算法对比其他网络使用本文的数据集的结果见表2。由表2 可知,本文的实验效果更好,但是目前比较好的网络都已经能达到这样的效果。本文对场景中的其他数个物体也进行了相同的步骤,但是实验结果相近就不在文中加以赘述了。

本文档为【PVANet:针对弱纹理工业零件的像素级6DoF位姿估计方法】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
个人认证用户
资教之佳
暂无简介~
格式:doc
大小:29KB
软件:Word
页数:14
分类:互联网
上传时间:2023-11-27
浏览量:8