IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 论文笔记(十四):PoseRBPF: A Rao–Blackwellized Particle Filter for 6-D Object Pose Tracking -> 正文阅读

[人工智能]论文笔记(十四):PoseRBPF: A Rao–Blackwellized Particle Filter for 6-D Object Pose Tracking

文章概括

作者:Xinke Deng, Arsalan Mousavian, Yu Xiang, Member, IEEE, Fei Xia, Member, IEEE, Timothy Bretl, Member, IEEE, and Dieter Fox, Fellow, IEEE
来源:IEEE TRANSACTIONS ON ROBOTICS
原文:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9363455
代码、数据和视频:https://github.com/NVlabs/PoseRBPF
系列文章目录:
上一篇:
论文笔记(十三):Differentiable Particle Filters: End-to-End Learning with Algorithmic Priors
下一篇:


摘要

从视频中追踪物体的六维姿态为机器人执行不同的任务(如操纵和导航)提供了丰富的信息。在这篇文章中,我们在Rao-Blackwellized粒子过滤框架中制定了6维物体姿态跟踪问题,其中物体的3-D旋转和3-D平移是解耦的。这一因素化使得我们的方法,即PoseRBPF,能够有效地估计物体的3-D平移以及3-D旋转的全部分布。这是通过细粒度的旋转空间离散化和训练一个自动编码器网络来构建离散化旋转的特征嵌入编码库来实现的。因此,PoseRBPF可以追踪具有任意对称性的物体,同时仍然保持足够的后验分布。我们的方法在两个六维姿势估计基准上取得了最先进的结果。我们将我们的实现开源于https://github.com/NVlabs/PoseRBPF

索引词——计算机视觉,状态估计,六维物体姿势跟踪。


1. 介绍

从摄像机图像中估计物体的6维姿势,即物体相对于摄像机的3维旋转和3维平移,是机器人应用中的一个重要问题。例如,在机器人操纵中,物体的六维姿态估计为机器人提供了规划和执行抓取的关键信息。在机器人导航任务中,三维物体的定位为规划和避开障碍物提供了有用的信息。由于其重要性,机器人界[5]、[9]、[67]、[75]和计算机视觉界[21]、[37]、[53]都为解决六维姿势估计问题做出了各种努力。

传统上,物体的六维姿态是使用局部特征或模板匹配技术来估计的,其中从图像中提取的特征与为物体的三维模型生成的特征或视点模板相匹配。然后,利用这些局部特征的2-D-3-D对应关系或通过选择最佳匹配视角来恢复6-D物体的姿势[9], [20], [21]。最近,机器学习技术被用来检测关键点或学习更好的图像特征进行匹配[3], [32]。由于深度学习的进步,卷积神经网络最近被证明可以显著提高姿势估计的准确性和鲁棒性[27], [48], [62], [75], [76], 到目前为止,基于图像的六维姿势估计的重点是单一图像估计的准确性;大多数技术忽略了时间信息,只为物体的姿势提供了单一假设。然而,在机器人领域,时间数据和关于估计的不确定性的信息对于抓取计划或主动感应等任务也非常重要。视频数据中的时间跟踪可以改善姿势估计[7]、[10]、[31]、[46]。在基于点云的姿势估计方面,卡尔曼滤波也被用于跟踪6-D姿势,其中宾汉分布已被证明很适合于方向估计[59]。然而,单模态估计不足以充分代表由遮挡和可能的物体对称性引起的复杂不确定性。

在这篇文章中,我们介绍了一种基于粒子滤波器的方法来估计6维物体姿势的全部后验。我们的方法,称为PoseRBPF,将后验分解为物体的3-D平移和3-D旋转,并使用Rao-Blackwellized粒子过滤器,对物体姿势进行采样,并对每个粒子的旋转进行离散化分布估计。为了实现准确的估计,三维旋转是以5?的分辨率离散的,导致每个粒子的分布在72×37×72=191 808个仓(海拔范围仅从-90?到90?)。为了实现实时性能,我们为所有离散的旋转预先计算了一个编码簿,其中嵌入来自一个自动编码器网络,该网络被训练为编码物体在一定比例下的任意视角的视觉外观(受[60]启发)。对于每个粒子,PoseRBPF首先使用3-D翻译来确定图像中物体边界盒的中心和大小,然后使用自动编码器计算该边界盒的嵌入,最后通过使用余弦距离将嵌入向量与编码簿中预先计算的条目进行比较来更新旋转分布。每个粒子的权重是由旋转分布的归一化系数给出的。运动更新是通过对姿势的运动模型取样和对旋转的卷积来有效进行的。图1说明了我们用于6维物体姿势跟踪的PoseRBPF框架。在YCB-Video数据集[75]和T-Less数据集[24]上的实验表明,PoseRBPF能够表示由各种类型的物体对称性引起的不确定性,并能提供更准确的6维姿势估计。

图一

图1. 用于六维物体姿势跟踪的PoseRBPF框架概述。我们的方法利用Rao-Blackwellized粒子过滤器和自动编码器网络来估计视频序列中目标物体的3-D平移和3-D旋转的完整分布。

我们的工作有以下主要贡献。

  1. 我们引入了一个新的和通用的6-D物体姿势估计框架,该框架以一种高效和原则性的方式将Rao-Blackwellized粒子过滤与学习型自动编码器网络相结合。
  2. 我们的框架能够跟踪基于RGB或RGB-D输入的6维物体姿势的全部分布。对于具有任意种类对称性的物体,它也能做到这一点,而不需要任何人工对称性标签。

与PoseRBPF[12]的上一版本相比,我们在本文中引入了以下改进。

  1. 我们提出了一个受[17]启发的有效修改,我们应用兴趣区域(RoI)池来加速粒子评估。实验表明,在不牺牲跟踪精度的情况下,RGB-D跟踪速度可以提高68%以上。
  2. 除了使用自动编码器对RGB测量进行编码外,我们还建议使用单独的自动编码器对深度测量进行编码,并表明跟踪性能可以得到显著提高。
  3. 我们表明,我们的姿势估计框架可以与基于符号距离函数(SDF)的姿势精化模块相结合,以进一步提高姿势估计的准确性。
  4. 我们表明,当物体检测不可用时,PoseRBPF可以通过在第一个视频帧上均匀采样粒子来初始化,然后在连续的帧上完善这一估计。
    本文的其余部分组织如下。在讨论了相关工作后,我们提出了用于6维物体姿势跟踪的Rao-Blackwellized粒子过滤框架,然后是实验评估和结论。

2. 相关工作

A. 六维物体姿态估计

我们的工作与最近使用深度神经网络进行六维物体姿势估计的进展密切相关。目前的趋势是用估计六维物体姿态的能力来增强最先进的二维物体检测网络。例如,Kehl等人[27]将SSD检测网络[40]扩展到6-D姿势估计中,将视角分类加入到该网络。Tekin等人[62]利用YOLO架构[51]检测图像中物体的3-D边界盒角,然后通过解决透视-n-点问题恢复6-D姿态。在[42]、[49]、[58]和[67]中也探讨了检测三维边框角或物体关键点来进行六维物体姿势估计。PoseCNN[75]基于VGG架构[57]设计了一个用于6-D物体姿势估计的端到端网络。尽管这些方法比传统方法[3], [21], [32]明显提高了六维姿态估计的准确性,但它们在处理对称物体时仍然面临困难,大多数方法都是手动指定每个此类物体的对称轴。为了处理对称物体,Tian等人[64]提出对旋转锚点进行均匀采样,并估计锚点与目标的偏差。此外,Sundermeyer等人[60], [61]通过训练一个用于图像重建的自动编码器,引入了一种隐含的表示三维旋转的方法,它不需要预先定义对称物体的对称轴。我们在工作中利用这种隐含的3-D旋转表示,并展示了如何将其与粒子过滤结合起来进行6-D物体姿态跟踪。

B. 六维物体姿态跟踪

另一组相关工作是关于视频中的物体追踪。早期的工作[6], [18], [68]利用图像特征(如边缘和关键点)追踪物体。然而,这些方法不能处理具有复杂纹理和闭塞的环境。它们在实际的机器人任务中是有限的。RGB-D传感器的引入大大简化了6-D姿势跟踪问题,因为场景的结构可以直接感知到颜色信息的赞美。使用RGB-D数据的物体跟踪得到了更多的关注[7]、[16]、[28]、[52]、[55]、[71]、[72]。尽管已经取得了重大进展,但由于深度传感器的限制,这些方法仍然不能在大规模或户外环境中稳健地工作,也不能用于小型或薄型物体。用RGB数据进行6-D姿势跟踪的最新进展包括[41]、[50]、[65]和[66]。在[50]中,物体的姿势是通过优化3-D模型的投影轮廓来更新的。该方法在[65]中通过一个新的优化方案和GPU并行化得到了改进。Tjaden等人[66]通过时间上一致的局部颜色直方图来改进姿势跟踪。同时,深度神经网络被探索用于6-D物体的姿势跟踪。最近,深度神经网络被用来预测连续帧之间的姿势差异,并相应地跟踪六维物体的姿势[36],[41],[72]。与使用手工制作的特征的方法相比,这些方法大大改善了跟踪的鲁棒性和准确性[50], [65], [66]。然而,在这些工作中,物体的对称性要么被忽略,要么被手动指定,并且需要6-D物体姿势估计来初始化跟踪管道。我们表明,我们的框架可以自动处理对称性,并且物体姿势跟踪可以只用2-D信息初始化,即第一个视频帧中物体的中心,甚至可以通过在图像中均匀采样颗粒来初始化,而不需要任何事先的空间信息。

C. 粒子滤波

粒子滤波框架在文献[29]、[45]、[54]、[56]中被广泛地应用于不同的跟踪应用,这要归功于它在纳入不同的观测模型和运动先验方面的灵活性。同时,它提供了一个严格的概率公式来估计跟踪结果的不确定性。人们还提出了不同的方法来使用粒子过滤器追踪物体的位置[2], [8], [35], [47], [74]。然而,为了达到良好的跟踪性能,粒子滤波器需要一个强大的观测模型。此外,跟踪帧率受到粒子采样和评估效率的限制。在这篇文章中,我们对6维物体姿态跟踪问题进行了因子化,并部署了Rao-Blackwellized粒子滤波器[15],它已被证明可以扩展到复杂的估计问题,如同步定位和映射问题[44], [63]和多模型目标跟踪[34], [54]。我们还采用了一个深度神经网络作为观察模型,即使在闭塞和对称的情况下也能对物体的方向提供稳健的估计。我们的设计使我们能够使用高效的GPU实现来并行评估所有可能的方向。因此,我们的方法可以在20帧/秒的速度下跟踪物体的六维姿势分布。


3. 用PoseRBPF进行六维物体姿势跟踪

在这一节中,我们首先陈述了六维物体姿态跟踪的问题,并提供了PoseRBPF的高级概述。在用粒子滤波框架来表述这个问题之后,我们详细描述了如何利用深度神经网络来计算粒子的似然性,并实现高效的跟踪采样策略。

A. 问题定式化

给定到时间 k k k的输入图像序列 Z 1 : k Z_{1:k} Z1:k?,对物体进行六维物体姿态跟踪的目标是估计图像流中每幅图像的相机坐标框架 C C C和物体坐标框架 O O O之间的刚体变换。我们假设第一幅图像中物体的二维中心 ( u , v ) (u, v) u,v是由物体检测器提供的,如[17]和[51]中用于姿势跟踪的初始化,并且物体的三维计算机辅助设计(CAD)模型是已知的。刚体变换包括物体在时间 k k k的三维旋转 R k R_k Rk?和三维平移 T k T_k Tk?。在本文中,我们的主要目标不是提供单一的估计 { R k , T k } \{R_k,T_k\} {Rk?Tk?},而是估计物体的六维姿势的后验分布 P ( R k , T k ∣ Z 1 : k ) P(R_k, T_k|Z_{1:k}) P(Rk?,Tk?Z1:k?)

B. PoseRBPF概述

图2说明了我们的6维物体姿势跟踪框架的结构。PoseRBPF中的每个粒子都由一个翻译假设和一个以翻译假设为条件的旋转分布表示。在每个步骤中,粒子首先根据第三节E中描述的运动模型进行传播。每个粒子根据其翻译确定一个独特的 R o I RoI RoI R o I RoI RoI被送入一个自动编码器网络以计算一个特征嵌入。观察似然是通过将嵌入与预先计算的编码簿中的嵌入相匹配来计算的,这将在第三节D中详述。最后,粒子的权重可以用观察似然来计算,粒子也相应地被重新采样。

图二

图2. PoseRBPF的结构。对于每个粒子,旋转分布的估计以平移估计为条件,而平移估计则以相应的RoIs进行评估。

C. Rao–Blackwellized 粒子滤波器的公式

使用标准粒子滤波器[11], [63]对这个6维空间进行采样来估计后验分布 P ( R k , T k ∣ Z 1 : k ) P(R_k, T_k|Z_{1:k}) P(Rk?,Tk?Z1:k?)是不可行的,特别是当物体的旋转存在很大的不确定性时。当物体被严重遮挡或具有导致多种有效旋转假说的对称性时,这种不确定性经常发生。因此,我们建议将6维姿势估计问题分解为3维旋转估计和3维平移估计。这个想法是基于这样的观察:3-D平移可以从图像中物体的位置和大小来估计。平移估计提供了图像中物体的中心和比例,在此基础上,可以从物体在边界框内的外观来估计三维旋转。具体来说,我们将后验分解为:

P ( R k , T k ∣ Z 1 : k ) = P ( T k ∣ Z 1 : k ) P ( R k ∣ T k , Z 1 : k ) , ( 1 ) P(R_k,T_k|Z_{1:k})=P(T_k|Z_{1:k})P(R_k|T_k,Z_{1:k}), (1) P(Rk?,Tk?Z1:k?)=P(Tk?Z1:k?)P(Rk?Tk?,Z1:k?),1

其中 P ( T k ∣ Z 1 : k ) P(T_k|Z_{1:k}) P(Tk?Z1:k?)编码物体的位置和比例。而 P ( R k ∣ T k , Z 1 : k ) P(R_k|T_k, Z_{1:k}) P(Rk?Tk?,Z1:k?)则是以翻译和图像为条件的旋转分布模型。

这个因式分解直接导致了Rao-Blackwellized粒子滤波器的有效采样方案[15], [63],其中时间 k k k的后验由一组 N N N个加权样本 X k = { T k i , P ( R k ∣ T k i , Z 1 : k ) , w k i } i = 1 N \mathcal{X}_k=\{T^i_k, P(R_k|T^i_k, Z_{1:k}), w^i_k\}^N_{i=1} Xk?={Tki?,P(Rk?Tki?,Z1:k?),wki?}i=1N?。这里, T k i T^i_k Tki?表示第 i i i个粒子的平移, P ( R k ∣ T k i , Z 1 : k ) P(R_k|T^i_k, Z_{1:k}) P(Rk?Tki?,Z1:k?)表示以平移和图像为条件的粒子在物体旋转上的离散分布,而 w k i w^i_k wki?是重要性权重。为了实现准确的姿势估计,由方位角、仰角和面内旋转组成的三维物体旋转被离散成大小为5?的仓,从而使每个粒子在72×37×72=191 808个仓中分布(仰角范围仅从-90?到90?)。在每一个时间步骤 k k k,粒子通过运动模型传播,产生一组新的粒子 X k + 1 \mathcal{X}_{k+1} Xk+1?,我们可以从中估计出6维姿势分布。

根据粒子过滤器的表述, P ( T k ∣ Z 1 : k ) = ∑ i w k i δ ( T k ? T k i ) P(T_k|Z_{1:k})=\sum_iw^i_kδ(T_k-T^i_k) P(Tk?Z1:k?)=i?wki?δ(Tk??Tki?),其中 δ ( ? ) δ(\cdot) δ(?)代表零点的狄拉克三角函数。权重 w k i w^i_k wki?可以被计算为

w k i ∝ P ( Z k ∣ T k i ) , ( 2 ) w^i_k\propto P(Z_k|T^i_k), (2) wki?P(Zk?Tki?),2

= ∫ P ( Z k ∣ T k i , R k ) P ( R k ) d R k , ( 3 ) = \int P(Z_k|T^i_k,R_k)P(R_k)dR_k,(3) =P(Zk?Tki?,Rk?)P(Rk?)dRk?,3

≈ ∑ j P ( Z k ∣ T k i , R k j ) P ( R k j ) , ( 4 ) \thickapprox \sum_jP(Z_k|T^i_k,R^j_k)P(R^j_k), (4) j?P(Zk?Tki?,Rkj?)P(Rkj?),4

其中 R k j R^j_k Rkj?表示离散的旋转。

D. 观察似然

观测似然 P ( Z k ∣ T k , R k ) P(Z_k|T_k, R_k) P(Zk?Tk?,Rk?)衡量观测 Z k Z_k Zk?与物体姿势在三维旋转 R k R_k Rk?和三维平移 T k T_k Tk?下的兼容性。

直观地说,可以采用六维物体姿势估计方法,如[27]、[62]和[75],来估计观测似然。然而,这些方法只提供6维姿势的单一估计,而不是估计概率分布,也就是说,它们的估计没有不确定性。此外,如果我们想在粒子过滤中评估大量的样本,这些方法的计算成本很高。

理想情况下,如果我们能在与观测值 Z k Z_k Zk?相同的场景中合成一幅具有姿态 ( R k , T k ) (R_k,T_k) Rk?Tk?的物体图像,我们就可以将合成图像与输入图像 Z k Z_k Zk?进行比较,以测量似然度。然而,这并不可行,因为要合成与输入视频帧中相同的光照、背景、甚至物体之间的遮挡物是非常困难的。相反,考虑到物体的三维模型,使用恒定的光照、空白背景和无遮挡来渲染物体的合成图像是很简单的。因此,受[60]的启发,我们应用一个自动编码器将观测值 Z k Z_k Zk?转化为与物体的合成渲染相同的域。然后,我们可以比较合成域中的图像特征,有效地测量6-D姿势的可能性。

1)自动编码器: 一个自动编码器被训练成将目标物体的姿态 ( R , T ) (R,T) RT的图像 Z Z Z映射到由相同姿态渲染的物体的合成图像 Z ′ Z' Z,其中合成图像Z’是用恒定的照明渲染的,合成图像中没有背景和遮挡。通过这种方式,自动编码器被迫将具有不同照明、背景和遮挡的图像映射到共同的合成域。图3显示了训练期间自动编码器的输入和输出。此外,自动编码器还学习了输入图像的特征嵌入 f ( Z ) f(Z) f(Z)

图三

图3. 自动编码器的输入和输出。具有不同照明、背景和遮挡的图像被送入网络,以便从相同的6-D姿势中重建物体的合成图像。编码器生成一个输入图像的特征嵌入(代码)。

我们没有训练自动编码器来重建具有任意6-D姿势的图像,这使得训练具有挑战性,而是将3-D平移固定为一个典型的 T 0 = ( 0 , 0 , z ) T T_0 = (0, 0, z)^T T0?=(0,0,z)T,其中 z z z是一个恒定的距离。典型的平移表示目标物体在摄像机的前面,距离为 z z z z z z可以通过优化三维模型到摄像机的距离来计算,这可以确保所有旋转的渲染与训练图像的大小(在我们的实验中为128×128)很好地匹配。三维旋转 R R R在训练过程中是均匀采样的。训练结束后,对于每个离散的三维旋转 R i R^i Ri,使用编码器计算特征嵌入 f ( Z ( R i , T 0 ) ) f(Z(R^i, T_0)) f(Z(Ri,T0?)),其中 Z ( R i , T 0 ) Z(R^i, T_0) Z(Ri,T0?)表示目标物体从姿势 ( R i , T 0 ) (R^i, T_0) (Ri,T0?)的渲染图像。我们认为离散的三维旋转的所有特征嵌入的集合是目标的编码本,接下来我们将展示如何使用编码本计算似然。

2)编码簿匹配: 给定一个三维翻译假设 T k T_k Tk?,我们可以从图像 Z k Z_k Zk?中裁剪出一个 R o I RoI RoI,然后将 R o I RoI RoI送入编码器,计算出 R o I RoI RoI的特征嵌入。具体来说,三维翻译 T k = ( x k , y k , z k ) T T_k = (x_k, y_k, z_k)^T Tk?=(xk?,yk?,zk?)T被投影到图像上,以找到 R o I RoI RoI的中心 ( u k , v k ) (u_k, v_k) uk?,vk?

[ u k v k ] = [ f x x k z k + p x f y y k z k + p y ] , ( 5 ) \begin{bmatrix} u_k\\v_k\end{bmatrix} = \begin{bmatrix} f_x\frac{x_k}{z_k}+p_x\\f_y\frac{y_k}{z_k}+p_y\end{bmatrix}, (5) [uk?vk??]=[fx?zk?xk??+px?fy?zk?yk??+py??],5

其中 f x f_x fx? f y f_y fy?表示相机的焦距, ( p x , p y ) T (p_x, p_y)^T (px?,py?)T是主点。 R o I RoI RoI的大小由 z k z s \frac{z_k}{z}s zzk??s决定,其中 z z z s s s分别是训练自动编码器时的典范距离和 R o I RoI RoI大小。请注意,在我们的案例中,每个 R o I RoI RoI是一个正方形区域,这使得 R o I RoI RoI与物体的旋转无关。

R o I RoI RoI被送入编码器以计算特征嵌入 c = f ( Z k ( T k ) ) c = f(Z_k(T_k)) c=f(Zk?(Tk?))。最后,我们计算 R o I RoI RoI的特征嵌入和编码本中的代码之间的余弦距离,这也被称为相似度得分,以衡量观察的可能性:

P ( Z k ∣ T k , R c j ) = ? ( c ? f ( Z ( R c j , T 0 ) ) ∣ ∣ c ∣ ∣ ? ∣ ∣ f ( Z ( R c j , T 0 ) ) ∣ ∣ ) , ( 6 ) P(Z_k|T_k, R^j_c) = \phi\bigg(\frac{c\cdot f(Z(R^j_c,T_0))}{||c||\cdot ||f(Z(R^j_c,T_0))||}\bigg), (6) P(Zk?Tk?,Rcj?)=?(c?f(Z(Rcj?,T0?))c?f(Z(Rcj?,T0?))?),6

其中 R c j R^j_c Rcj?是编码本中的一个离散旋转, ? ( ? ) \phi(\cdot) ?(?)是一个高斯概率密度函数,其中心是所有粒子的编码本中的最大余弦距离。图4说明了通过编码本匹配来计算旋转似然。这样,我们也可以根据贝叶斯规则得到编码本中所有旋转的概率分布,即给定一个翻译的概率为

P ( R c j ∣ T k , Z k ) ∝ P ( Z k ∣ T k , R c j ) , ( 7 ) P(R^j_c|T_k,Z_k)\propto P(Z_k|T_k,R^j_c), (7) P(Rcj?Tk?,Zk?)P(Zk?Tk?,Rcj?),7

由于自动编码器是在物体位于图像中心和一定比例的情况下进行训练的,也就是说,在典型平移 T 0 T_0 T0?的情况下,物体的任何比例变化或偏离图像中心的情况都会导致重建效果不佳(见图5)。具有不正确平移的粒子会产生物体不在 R o I RoI RoI中心或具有错误比例的 R o I RoI RoI。然后,我们可以检查 R o I RoI RoI的重建质量来衡量翻译假设的可能性。直观地说,如果翻译 T k T_k Tk?是正确的,那么(6)中接近地面真实旋转的旋转Ri的相似性分数会很高。最后,翻译可能性 P ( Z k ∣ T k ) P(Z_k|T_k) P(Zk?Tk?)可按(4)计算。

图五

从自动编码器重建RoI的可视化。左边是地面真实的RoI。其他两列显示了移位和比例变化后的重建。如图所示,重建的质量随着偏离地面真实RoI而下降。在这个例子中,相似度得分分别从0.91下降到0.62和0.72。这一特性使自动编码器成为计算观测似然的合适选择。

E. 运动先验

Motion prior is used to propagate the distribution of the poses from the previous time step k ? 1 to the current time step k. We use a constant velocity model to propagate the probability distribution of the 3-D translation

P ( T k ∣ T k ? 1 , T k ? 2 ) = N ( T k ? 1 + α ( T k ? 1 ? T k ? 2 ) , Σ T ) , ( 8 ) P(T_k|T_{k?1}, T_{k?2}) = \mathcal{N} (T_{k?1} + α(T_{k?1} ? T_{k?2}), Σ_T), (8) P(Tk?Tk?1?,Tk?2?)=N(Tk?1?+α(Tk?1??Tk?2?),ΣT?),8

其中 N ( μ , Σ ) \mathcal{N}(μ,Σ) NμΣ表示均值为 μ μ μ、协方差矩阵为 Σ Σ Σ的多变量正态分布, α α α是恒定速度模型的超参数。旋转先验被定义为一个具有均值 R k ? 1 R_{k-1} Rk?1?和固定协方差 Σ R Σ_R ΣR?的正态分布:

P ( R k ∣ R k ? 1 ) = N ( R k ? 1 , Σ R ) , ( 9 ) P(R_k|R_{k-1})=\mathcal{N}(R_{k-1},Σ_R), (9) P(Rk?Rk?1?)=N(Rk?1?,ΣR?),9

其中我们用欧拉角表示旋转 R R R。然后,旋转先验可以通过对以前的旋转分布与三维高斯核的卷积来实现。

F. 6维对象姿态跟踪框架

追踪过程可以从任何输出目标物体的二维边界框的二维物体检测器中初始化。鉴于第一帧 Z 1 Z_1 Z1?,我们对二维边界框的中心进行反投影,以计算三维平移的 ( x , y ) (x,y) xy分量,并对不同的 z s zs zs进行均匀采样,以产生一组平移假设。具有最高可能性 P ( Z 1 ∣ T ) P(Z_1|T) P(Z1?T)的翻译 T 1 T_1 T1?被用作初始假设, P ( R ∣ T 1 , Z 1 ) P(R|T_1, Z_1) P(RT1?,Z1?)被用作初始旋转分布。

在接下来的每一帧,我们首先用运动先验来传播 N N N个粒子。然后,用最新的观测值 Z k Z_k Zk?来更新粒子。具体来说,对于每个粒子,翻译估计 T k i T^i_k Tki?被用来计算图像 Z k Z_k Zk?中物体的 R o I RoI RoI。得到的 R o I RoI RoI通过自动编码器来计算相应的代码。对于每个粒子,旋转分布被更新为:

P ( R k ∣ T k i , Z 1 : k ) = η P ( R k ∣ T k i , Z k ) P ( R k ∣ R k ? 1 ) P ( R k ? 1 ) P(R_k|T^i_k,Z_{1:k}) = ηP(R_k|T^i_k,Z_k)P(R_k|R_{k-1})P(R_{k-1}) P(Rk?Tki?,Z1:k?)=ηP(Rk?Tki?,Zk?)P(Rk?Rk?1?)P(Rk?1?)

其中, P ( R k ∣ T k i , Z k ) P(R_k|T^i_k, Z_k) P(Rk?Tki?,Zk?)是(7)中定义的旋转分布, P ( R k ∣ R k ? 1 ) P(R_k|R_{k-1}) P(Rk?Rk?1?)是运动先验, η η η是一个常数规范器。最后,我们根据(4)计算带有该粒子权重 w i w^i wi的平移后验 P ( T k i ∣ Z 1 : k ) P(T^i_k|Z_{1:k}) P(Tki?Z1:k?)。系统重采样方法[14]被用来根据权重 w 1 : N w^{1:N} w1:N对粒子进行重采样。

一些机器人任务需要从粒子滤波器中得到物体的六维姿势的期望值 ( T k E , R k E ) (T^E_k , R^E_k) (TkE?,RkE?)用于决策。平移期望值T^E_k可以通过以下方式计算出来

T k E = ∑ i = 1 N w k i T k i , ( 10 ) T^E_k = \sum^N_{i=1}w^i_kT^i_k,(10) TkE?=i=1N?wki?Tki?,10

由于物体跟踪任务中翻译的单模态性质,所有 N N N个粒子都是如此。计算旋转期望值 R k E R^E_k RkE?不太明显,因为分布 P ( R k ) P(R_k) P(Rk?)可能是多模态的,简单地对所有离散的旋转进行加权平均是没有意义的。为了计算旋转期望值,我们首先计算旋转分布 P ( R k E ) P(R^E_k) P(RkE?)的期望值,用

P ( R k E ) = ∑ i = 1 N w k i P ( R k ∣ T k i , Z 1 : k ) , ( 11 ) P(R^E_k)=\sum^N_{i=1}w^i_kP(R_k|T^i_k,Z_{1:k}), (11) P(RkE?)=i=1N?wki?P(Rk?Tki?,Z1:k?),11

然后,旋转期望值 R k E R^E_k RkE?是通过加权平均先前旋转期望值 R k ? 1 E R^E_{k-1} Rk?1E?的邻域内的离散自我中心旋转来计算的,使用的是[43]中提出的四元平均法。自我中心方向和分配中心方向之间的区别在[33]中描述。

用估计的RoI进行编码本匹配也提供了一种检测跟踪失败的方法。我们可以首先找到所有粒子之间的最大相似度得分。然后,如果最大分值低于预定的阈值,我们就把它确定为跟踪失败。算法1总结了我们用于6维物体姿势跟踪的Rao-Blackwellized粒子过滤器。

在这里插入图片描述

算法一

G. PoseRBPF的RGB-D扩展

PoseRBPF是一个通用的框架,可以在观察似然中用额外的深度测量来扩展。有了 R G B RGB RGB输入 Z k C Z^C_k ZkC?和额外的深度测量 Z k D Z^D_k ZkD?,观察似然 P ( Z k ∣ T k , R k ) P(Z_k|T_k, R_k) P(Zk?Tk?,Rk?)可以重写为

P ( Z k ∣ T k , R k ) = P ( Z k C , Z k D ∣ T k , R k ) = P ( Z k C ∣ T k , R k ) P ( Z k D ∣ T k , R k ) , ( 12 ) P(Z_k|T_k,R_k)=P(Z^C_k,Z^D_k|T_k,R_k)=P(Z^C_k|T_k, R_k)P(Z^D_k |T_k, R_k), (12) P(Zk?Tk?,Rk?)=P(ZkC?,ZkD?Tk?,Rk?)=P(ZkC?Tk?,Rk?)P(ZkD?Tk?,Rk?),12

我们提出两种方法来计算深度测量的观察似然性 P ( Z k D ∣ T k , R k ) P(Z^D_k |T_k, R_k) P(ZkD?Tk?,Rk?)。在第一种方法中,可以根据每个粒子的旋转分布 P ( R k ∣ T k i , Z k i ) P(R_k|T^i_k, Z^i_k) P(Rk?Tki?,Zki?)中的平移 T k i T^i_k Tki?和最可能的旋转 R k ? R^?_k Rk??渲染深度图。通过比较渲染的深度图和深度测量值,可以计算出深度的观测似然。在第二种方法中,深度测量值也可以用自动编码器进行编码,深度的观测似然可以通过类似于RGB图像的方式进行计算。除了用PoseRBPF进行过滤外,深度还可以用三维物体模型的SDF来进一步细化估计的姿势。

  1. 渲染和比较:为了计算第i个粒子的可能性 P ( Z k D ∣ T k i , R k ) P(Z^D_k |T^i_k, R_k) P(ZkD?Tki?,Rk?),我们可以用姿势 ( T k i , R k ? ) (T^i_k, R^?_k) (Tki?,Rk??)渲染物体,其中 R k ? = a r g m a x R k P ( R k ∣ T k i , Z k ) R^?_k = arg max_{R_k} P(R_k|T^i_k, Z_k) Rk??=argmaxRk??P(Rk?Tki?,Zk?)。为了比较渲染的深度图 Z ^ k D i \hat{Z}^{Di}_k Z^kDi?和深度测量值 Z k D Z^D_k ZkD?,我们估计可见性掩码 V ^ k i = ? p , ∣ Z ^ k D i ( p ) ? Z k D ( p ) ∣ < m \hat{V}^i_k = {?p, |\hat{Z}^{D_i}_k (p) - Z^D_k (p)| < m} V^ki?=?p,Z^kDi??(p)?ZkD?(p)<m,其中 p p p表示图像中的一个像素, m m m是一个小的正常数保证金,以考虑传感器的噪音。因此,一个深度在 Z k D ( p ) ± m Z^D_k (p) ± m ZkD?(p)±m范围内的渲染像素 p p p被确定为可见。有了估计的可见性掩码,两个深度图之间的可见深度差异被计算为

Δ k i ( Z ^ k D i , Z k D , V ^ k i , τ ) = arg ? p ∈ V ^ k i ( m i n ( ∣ Z k D ( p ) ? Z ^ k D i ( p ) ∣ τ , 1 ) ) , ( 13 ) Δ^i_k(\hat{Z}^{D_i}_k,Z^D_k,\hat{V}^i_k,τ)=\arg_{p \in \hat{V}^i_k}\Bigg(min\bigg(\frac{|Z^D_k(p)-\hat{Z}^{D_i}_k(p)|}{τ},1\bigg)\Bigg) , (13) Δki?(Z^kDi??,ZkD?,V^ki?,τ)=argpV^ki??(min(τZkD?(p)?Z^kDi??(p)?,1)),13

其中 τ τ τ是一个预定的阈值。对于每一个粒子,我们计算它的深度分数为 s d i = v k i ( 1 ? Δ k i ) s^i_d = v^i_k(1 - Δ^i_k) sdi?=vki?(1?Δki?),其中 v k i v^i_k vki?是物体的可见度比率,即根据可见度掩码的可见像素数除以渲染的总像素数。最后,我们计算 P ( Z k D ∣ T k i , R k ) P(Z^D_k|T^i_k, R_k) P(ZkD?Tki?,Rk?) ? ′ ( s d i ) \phi'(s^i_d) ?(sdi?),其中 ? ′ ( ? ) \phi'(\cdot) ?(?)是一个高斯概率密度函数,其中心是所有粒子中的最大深度得分。

  1. 对深度测量进行编码:另一种利用深度测量的方法是用一个单独的自动编码器网络计算观察似然 P ( Z k D ∣ T k , R k ) P(Z^D_k |T_k, R_k) P(ZkD?Tk?,Rk?)。对于每个粒子 { T k i , P ( R k ∣ T k i , Z 1 : k ) } \{T^i_k, P(R_k|T^i_k, Z_{1:k})\} {Tki?,P(Rk?Tki?,Z1:k?)},我们首先将深度测量值归一化为

Z  ̄ k D = f c ( Z k D ? z k i d + 0.5 ) , ( 14 ) \overline{Z}^D_k = f_c\bigg(\frac{Z^D_k-z^i_k}{d}+0.5\bigg), (14) ZkD?=fc?(dZkD??zki??+0.5),14

其中 d d d是物体的直径, z k i z^i_k zki?代表物体的深度, f c ( x ) f_c(x) fc?(x)是一个夹紧函数,定义为 f c ( x ) = m a x ( 0 , m i n ( 1 , x ) ) f_c(x)=max(0, min(1, x)) fc?(x)=max(0,min(1,x))。本质上,(14)根据粒子将深度测量归一化为[0,1]。我们在第四节中的实验表明,与编码原始深度值相比,归一化明显提高了跟踪精度。我们为归一化的深度训练一个单独的自动编码器,并以估计RGB图像的似然 P ( Z k D ∣ T k , R k ) P(Z^D_k |T_k, R_k) P(ZkD?Tk?,Rk?)的相同方式估计 P ( Z k C ∣ T k , R k ) P(Z^C_k |T_k, R_k) P(ZkC?Tk?,Rk?) 。根据(12),在粒子滤波框架中对观测似然进行融合。

  1. 用SDFs进行姿态精化:来自PoseRBPF的估计物体姿势可以通过深度测量的三维点与目标物体的SDF相匹配来进一步完善。我们首先根据姿势期望值 ( T k E , R k E ) (T^E_k , R^E_k) TkE?,RkE?渲染物体并与深度测量值进行比较来估计物体的分割掩码 V  ̄ \overline{V} V,如第III-G1节中所述。物体的点云 P o b j Pobj Pobj可以通过反投影 V  ̄ \overline{V} V中的像素来计算。

P o b j = { Z k D ( p ) K ? 1 p ? T , p ∈ V  ̄ } , ( 15 ) P_{obj}=\{Z^D_k(p)K^{-1}p^{-T}, p \in \overline{V}\}, (15) Pobj?={ZkD?(p)K?1p?T,pV},15

其中 K K K代表相机的固有矩阵, p  ̄ \overline{p} p?代表像素 p p p的同质坐标。

在计算出物体上的三维点后,我们通过将这些点与物体模型的SDF相匹配来优化姿势,如[55]。我们解决的优化问题是

( T ? , R ? ) = arg?min ? T , R ∑ p i ∈ P o b j ∣ S D F o b j ( p i , T , R ) ∣ , ( 16 ) (T^*,R^*) = \argmin_{T,R}\sum_{p_i\in P_{obj}}|SDF_{obj}(p_i,T,R)|, (16) (T?,R?)=T,Rargmin?pi?Pobj??SDFobj?(pi?,T,R),16

其中 p i p_i pi?是点云 P o b j P_{obj} Pobj?中的一个三维点, S D F o b j ( p i , T , R ) SDF_{obj}(p_i, T, R) SDFobj?(pi?,T,R)表示通过使用姿势 ( T , R ) (T, R) (T,R)将点 p i p_i pi?从相机坐标转换到物体模型坐标的有符号距离值。优化问题可以用基于梯度的方法以迭代的方式解决。在我们的方法中,解决方案以姿势期望值 ( T k E , R k E ) (T^E_k , R^E_k) TkE?,RkE?初始化,并以亚当优化器[30]进行优化。

H. 快速PoseRBPF

受[17]的启发,我们提出了对PoseRBPF的修改,以加速对粒子的评估。据观察,在跟踪过程中,粒子的RoIs之间存在着明显的重叠。如图6所示,我们建议根据RoIs来裁剪来自编码器的特征图,而不是直接在输入图像上裁剪RoIs并为每个粒子单独传递它们,这样早期的卷积可以在粒子之间共享。我们把这种高效的变体称为快速PoseRBPF。

图六

图6. 原始PoseRBPF和快速PoseRBPF中的自动编码器的比较。(a) 在原始PoseRBPF中,每个粒子直接在输入图像上裁剪其RoI并单独通过编码器。(b) 在快速PoseRBPF中,每个粒子在共享的特征图上裁剪,这样早期的卷积就可以在粒子之间共享。

具体来说,将粒子的平均平移表示为 T  ̄ = ( x  ̄ , y  ̄ , z  ̄ ) T \overline{T} = (\overline{x}, \overline{y}, \overline{z})^T T=(x,y?,z)T,它在二维图像 ( u  ̄ , v  ̄ ) T (\overline{u}, \overline{v})^T (u,v)T上的投影可以用(5)计算出来。我们首先以 ( u  ̄ , v  ̄ ) T (\overline{u}, \overline{v})^T (u,v)T为中心对输入图像进行裁剪,尺寸为 β z  ̄ z s β \frac{\overline{z}}{z}s βzz?s,其中 z z z s s s分别是训练自动编码器时的典型距离和尺寸, β β β是一个缩放系数,以确保裁剪后的图像足够大,能够覆盖粒子的所有 R o I s RoIs RoIs。裁剪后的图像通过前三个卷积层来计算特征图。对于每个具有平移 T k = ( x k , y k , z k ) T T_k = (x_k, y_k, z_k)^T Tk?=(xk?,yk?,zk?)T和投影二维中心 ( u k , v k ) T (u_k, v_k)^T (uk?,vk?)T的粒子,特征图上相应 R o I RoI RoI的大小可以计算为 z  ̄ β z k s o \frac{\overline{z}}{β_{z_k}}s_o βzk??z?so?,其中 s o s_o so?代表共享卷积层之后的特征图的大小。中心 ( u c , v c ) (u_c,v_c) uc?vc?可以计算为

( u c , v c ) = ( ( u k ? u  ̄ ) z  ̄ z ? s o β s + s o 2 , ( v k ? v  ̄ ) z  ̄ z ? s o β s + s o 2 ) (u_c,v_c)=\bigg(\frac{(u_k-\overline{u})\overline{z}}{z}\cdot\frac{s_o}{βs}+\frac{s_o}{2}, \frac{(v_k-\overline{v})\overline{z}}{z}\cdot\frac{s_o}{βs}+\frac{s_o}{2}\bigg) (uc?,vc?)=(z(uk??u)z??βsso??+2so??,z(vk??v)z??βsso??+2so??)

用[19]中提出的RoI对齐操作对特征图进行裁剪,并将裁剪后的特征分别送入以下网络层以生成粒子的代码。


4. 实验

A. 实施细节

1) 网络结构: RGB输入的自动编码器与[60]中的编码器相同。它接收大小为128×128的图像,由四个5×5卷积层和四个5×5解卷积层组成,分别用于编码器和解码器。在卷积层之后,一个全连接层被用来产生128-D嵌入。我们使用类似的结构,但在深度自动编码器中把卷积层的通道数减少一半,以避免过度拟合。对于Fast PoseRBPF,缩放系数β被设置为2。因此,用于生成特征图的输入图像的大小为256×256。粒子共享前三层的卷积运算;因此,也是32。

2) 训练: RGB-D训练数据是纯粹的合成数据,通过根据给定的CAD模型以随机旋转的方式渲染一个物体而产生。渲染的图像是在MS-COCO数据集[38]的随机裁剪处叠加的,分辨率为128×128。首先根据(14)对深度数据进行归一化,d=0.4。归一化深度的背景数据是通过对MS-COCO数据集中随机作物的RGB通道进行平均而产生的。除了目标物体外,另外三个物体以随机的位置和比例取样,以产生有遮挡物的训练数据。目标物体被定位在图像的中心,并以5个像素进行抖动。该物体在0.975和1.025之间的尺度上被均匀采样,并有随机照明。颜色在色相、饱和度、数值(HSV)空间中随机化。我们还在RGB和归一化深度中分别加入标准偏差为0.1和0.5的高斯噪声,以减少真实数据和合成数据之间的差距。每个训练步骤的图像都是在线渲染的,以提供更多样化的训练数据集。

使用学习率为0.0002的Adam优化器,对每个物体分别进行150 000次迭代的自动编码器训练,批量大小为64。自动编码器在具有最大重建误差的N个像素上用L2损失进行优化。较大的N更适合于纹理物体,以捕捉更多的细节。我们对有纹理的物体使用N=2000,对没有纹理的物体使用N=1000。

3)测试: 在测试时间内,用于计算(6)中观察可能性的标准差为0.05。每个物体的编码本都是离线预计算的,并在测试时间内加载。观察似然的计算在GPU上有效进行。在深度输入方面,对于III-G节中描述的渲染和比较方法,在我们的实现中,余量 m m m被选择为2厘米,阈值 τ τ τ被设置为3厘米。 ? ( ? ) \phi(\cdot) ?(?)的标准偏差被设定为0.05。由于为每个粒子渲染单独的深度图可能很昂贵,而渲染和比较方法的主要目标是改善翻译估计,在我们的实现中,我们在跟踪过程中为所有粒子渲染最可能的姿势的深度图;然后,渲染的深度图通过补偿用于渲染的翻译和每个粒子的翻译之间的差异来调整。对于初始化,深度图是为每个粒子单独渲染的。为了用SDF完善姿势估计,我们将Adam优化器的学习率设置为0.01,并将优化器运行100步。我们在一台装有英特尔i7 CPU和英伟达TitanXp GPU的台式电脑上进行实验。

B. 数据集

我们在两个六维物体姿态估计的数据集上评估我们的方法:T-LESS数据集[24]和YCB视频数据集[75]。T-LESS数据集包含30个无纹理工业物体的RGB-D序列。评估是在20个测试场景中进行的。T-LESS数据集具有挑战性,因为这些物体没有纹理,而且有各种形式的对称性和遮挡。YCB视频数据集包含来自YCB物体和模型集的21个物体的RGB-D视频序列[4]。它包含不同排列方式的有纹理和无纹理的家庭物体。在这两个数据集中,物体都有6维姿势的注释。

C. 评估指标

对于T-LESS数据集,我们使用可见表面差异 e r r v s d err_{vsd} errvsd?[23]来评估姿势估计的质量。它的计算方法是

e r r v s d = a v g p ∈ V ^ ∪ V g t c ( p , D ^ , D g t , τ ) err_{vsd} = avg_{p∈\hat{V} ∪V_{gt}} c(p, \hat{D},D_{gt}, τ ) errvsd?=avgpV^Vgt??c(p,D^,Dgt?,τ)

c ( p , D ^ , D g t , τ ) = { d / τ , i f p ∈ V ^ ∩ V g t ∧ d < τ 1 , o t h e r w i s e c(p,\hat{D},D_{gt},τ) =\left\{ \begin{aligned} d/τ & , & if p ∈ \hat{V} ∩ V_{gt} ∧ d<τ \\ 1 & , & otherwise \\ \end{aligned} \right. c(p,D^,Dgt?,τ)={d/τ1?,,?ifpV^Vgt?d<τotherwise?

其中, V ^ \hat{V} V^ D ^ \hat{D} D^ V g t V_{gt} Vgt? D g t D_{gt} Dgt?分别代表根据估计姿势和地面真实姿势渲染物体而计算出的物体的掩模和深度图; p p p代表图像中的一个像素; d d d是深度误差,可以用 d = ∣ D ^ ( p ) ? D g t ( p ) ∣ d=|\hat{D}(p)-D_{gt}(p)| d=D^(p)?Dgt?(p)来计算; τ τ τ是一个常数公差。我们报告了正确的6-D姿势的召回率,其中 e r r v s d < 0.3 err_{vsd} < 0.3 errvsd?<0.3 τ = 2 c m τ = 2 cm τ=2cm,可见度超过10%,遵循[22]。

对于YCB视频数据集,我们使用ADD和ADD-S[21], [75]作为评价指标。这两个指标可以被计算为
A D D = 1 m ∑ x ∈ M ∣ ∣ ( R x + T ) ? ( R ~ x + T ~ ) ∣ ∣ ADD = \frac{1}{m}\sum_{x\in\mathcal{M}}|| (Rx + T)-(\widetilde{R}x+\widetilde{T}) || ADD=m1?xM?(Rx+T)?(R x+T )

A D D ? S = 1 m ∑ x 1 ∈ M m i n x 2 ∈ M ∣ ∣ ( R x 1 + T ) ? ( R ~ x 2 + T ~ ) ∣ ∣ ADD-S = \frac{1}{m}\sum_{x_1\in\mathcal{M}}min_{x_2\in\mathcal{M}}||(Rx_1+T)-(\widetilde{R}x_2+\widetilde{T})|| ADD?S=m1?x1?M?minx2?M?(Rx1?+T)?(R x2?+T )

其中 M \mathcal{M} M表示三维模型点的集合, m m m是点的数量。 ( R , T ) (R, T) (R,T) ( R ~ , T ~ ) (\widetilde{R}, \widetilde{T}) (R ,T )分别是地面真实姿态和估计姿态。

D. 消融研究

我们在T-LESS数据集上进行消融研究,以证明我们的设计选择。粒子过滤器以RetinaNet[39]的检测输出为初始化,有100个粒子。表一显示了消融研究的结果。

表一

表一

1) 原始PoseRBPF与快速PoseRBPF: 第1-4行显示了原始PoseRBPF与快速PoseRBPF的比较。结果显示,快速PoseRBPF结构明显提高了跟踪速度,对于RGB来说提高了70%,对于RGB-D来说提高了93%。对于RGB输入的6维物体姿势跟踪精度,原始PoseRBPF明显优于快速PoseRBPF(第1行和第2行)。这种性能差距并不奇怪,因为卷积操作后空间分辨率下降,对特征空间的裁剪将导致翻译估计的准确性降低。然而,性能差距是通过深度测量来弥补的(第3行和第4行),因为根据粒子渲染物体并与深度测量进行比较,可以更准确地估计翻译。因此,我们只将快速架构用于RGB-D追踪,以保持RGB追踪的准确性。

2) 渲染和比较: 通过比较第1行和第3行,可以看出利用深度测量的好处和提议的渲染和比较策略的有效性。通过包括深度输入,可以更好地估计观测似然,并实现更准确的6-D姿势估计。

3)深度嵌入: 我们首先调查了对深度测量进行编码是否有助于提高跟踪的准确性。第2行和第5行显示,对深度测量进行编码可以提高追踪的准确性,提高幅度超过100%。尽管对深度测量进行编码的改善没有渲染和比较策略那么明显(第4行),但这两种方法可以一起利用,以进一步提高跟踪精度(第7行)。深度自动编码器可以被天真地训练来编码原始的深度测量值,这些测量值是公制的。然而,通过比较第6行和第7行,包括原始深度的自动编码器在内的跟踪性能明显恶化了。这种负面影响是由原始深度的大方差造成的,它证明了在将深度输入自动编码器之前用(14)对深度进行归一化。

4) RGB和深度融合: 除了深度表示,我们还研究了不同的方法来融合RGB和深度测量。一个直接的方法是用一个额外的深度通道来增强RGB输入的自动编码器。在这种情况下,深度测量与自动编码器中的RGB输入相融合,这被称为早期融合,与III-G节中提出的融合粒子过滤器中的观测似然(后期融合)相反。通过比较第7行和第8行,我们可以看到,晚期融合的结构比早期融合的结构实现了更好的准确性。这是因为粒子滤波器在贝叶斯估计框架中平衡了不同的模式,而从合成数据中很难学到相对重要性。通过比较第7行和第10行,可以看出,将RGB和深度输入融合在一起,比单独使用深度信息可以得到明显更准确的姿势跟踪。

5) 姿势精化: 从第7行和第9行也可以看出,姿势估计可以通过优化SDF来进一步完善,如第III-G节所述。

E. 在T-LESS数据集上的结果

表二将我们的方法与其他几种方法在T-LESS数据集上进行了比较。我们使用100个粒子来跟踪物体。对于RGB输入的姿势估计,我们将我们的方法与[60]进行了比较,后者使用了类似的自动编码器。然而,平移和方向是单独估计的,而且[60]中没有利用时间上的一致性。我们用[60]中使用的RetinaNet[39]的检测输出进行了评估。当检测到样本物体的多个实例时,我们使用列表中的第一个实例进行初始化。结果表明,通过在粒子过滤器中联合估计翻译和方向并考虑时间一致性,正确物体姿势的召回率增加了一倍。有了额外的深度图像,召回率可以进一步提高到98%左右。我们在这里使用带有编码深度的Fast PoseRBPF进行比较。在没有细化的情况下,我们的方法比使用迭代最接近点(ICPs)的[60]要好41%,比[26]好124%,比[69]好21%。通过细化,我们的方法比使用ICP的细化[60]好45%,[26]好130%,[69]好25%。对于使用地面真实边界框的实验,旋转是使用粒子过滤器跟踪的,而翻译则是根据地面真实边界框的比例推断出来的。这个实验突出了视角的准确性。在这种情况下,粒子过滤器的性能明显优于[60]和[1],这表明时间跟踪对物体姿势估计的重要性。图7显示了PoseRBPF在几张T-LESS图像上的6维姿势估计。
表二

表二

F. 在YCB视频数据集上的结果

表三和表四显示了对YCB视频数据集的姿势估计结果。在表三中,我们与最先进的基于单视图的6维物体姿势估计方法进行了比较,该方法使用RGB图像[36], [75]和RGB-D图像[36], [70], [75] 。图7说明了在YCB视频数据集上估计6-D姿势的一些例子。我们使用PoseCNN检测[75]在第一帧或物体被严重遮挡后初始化PoseRBPF。平均而言,每个序列只发生了1.03次。在实验中,100个粒子被用来跟踪6-D姿势。对于RGB输入的跟踪,我们的方法处理对称物体,如024_bowl, 061_foam_brick,比直接回归方向的方法好得多[75]。通过对来自PoseCNN的姿势进行进一步的基于图像的细化,DeepIM[36]实现了比我们的方法更准确的六维姿势估计。

图七

图7. T-LESS数据集(前两行)和YCB视频数据集(最后两行)上的估计姿势的可视化。地面真相的边界框为红色,绿色边界框为粒子RoI,物体模型在PoseRBPF估计的姿势下叠加在图像上。


表三

表三

表四

表四

在机器人定位的背景下,已经证明了增加根据最近的观察结果绘制的样本可以提高定位性能[63]。在这里,我们应用了这样一种技术,围绕PoseCNN的翻译预测对50%的粒子进行采样,另外50%则使用运动模型。我们的结果表明,这样的混合版本(Ours++)提高了我们方法的姿势估计精度,这要归功于更精确的提议分布。PoseRBPF表现不佳的对象之一是木块,这是由于木块的三维模型的纹理和真实图像中使用的木块的纹理不同造成的。此外,木块的物理尺寸在真实图像和本数据集中包含的模型之间是不同的。

如T-LESS数据集的结果所示,深度测量包含有用的信息来提高姿势估计的准确性。这种改进在YCB视频数据集上是一致的。还值得注意的是,深度测量也有助于弥合合成训练数据和真实测试数据之间的差距,从而使木块等物体的跟踪性能大大改善。通过比较渲染物体的深度与深度测量和编码深度测量,我们的过滤方法比[75]的ICP和融合方法[70]取得了更好的准确性。通过与SDF的细化,精度可以进一步提高,我们的方法达到了最先进的性能。

在表四中,我们将我们的方法与6-D物体姿势跟踪方法进行比较。我们首先将PoseRBPF与使用标准粒子滤波器的六维物体姿势跟踪基线进行比较。在这个基线中,每个粒子用一个平移假设 T k i T^i_k Tki?和一个旋转假设 R k i R^i_k Rki?表示,我们相应地渲染RGB图像 Z ^ k C i \hat{Z}^{C_i}_k Z^kCi??、深度图像 Z ^ k D i \hat{Z}^{D_i}_k Z^kDi??和物体的掩码 M ^ k i \hat{M}^i_k M^ki?。假设物体 M k M_k Mk?的分割掩码已经给出。我们可以计算出平均光度误差 Δ k C i Δ^{C_i}_k ΔkCi??和深度误差 Δ k D i Δ^{D_i}_k ΔkDi??

Δ k C i = a v g p ∈ ( M ^ k i ∩ M k ) ( ∣ Z ^ k C i ( p ) ? Z k C ( p ) ∣ ) Δ^{C_i}_k=avg_{ p∈( \hat{M}^i_k∩M_k) }(|\hat{Z}^{C_i}_k (p) ? Z^C_k (p)|) ΔkCi??=avgp(M^ki?Mk?)?(Z^kCi??(p)?ZkC?(p))

Δ k D i = a v g p ∈ ( M ^ k i ∩ M k ) ( ∣ Z ^ k D i ( p ) ? Z k D ( p ) ∣ ) Δ^{D_i}_k=avg_{ p∈( \hat{M}^i_k∩M_k) }(|\hat{Z}^{D_i}_k (p) ? Z^D_k (p)|) ΔkDi??=avgp(M^ki?Mk?)?(Z^kDi??(p)?ZkD?(p))

我们也可以计算估计的分割掩码 M ^ k i \hat{M}^i_k M^ki?和测量的分割掩码 M k M_k Mk?之间的交集和联合的比率,并将其记为 m k i m^i_k mki?。RGB和RGB-D跟踪的观察似然可以计算为

P R G B ( Z k ∣ T k i , R k i ) = ? c ( Δ k C i ) ? m ( m k i ) P_{RGB}(Z_k|T^i_k, R^i_k) = \phi_c(Δ^{C_i}_k)\phi_m(m^i_k) PRGB?(Zk?Tki?,Rki?)=?c?(ΔkCi??)?m?(mki?)

P R G B ( Z k ∣ T k i , R k i ) = ? c ( Δ k C i ) ? d ( Δ k D i ) ? m ( m k i ) P_{RGB}(Z_k|T^i_k, R^i_k) = \phi_c(Δ^{C_i}_k)\phi_d(Δ^{D_i}_k)\phi_m(m^i_k) PRGB?(Zk?Tki?,Rki?)=?c?(ΔkCi??)?d?(ΔkDi??)?m?(mki?)

其中 ? c ( ? ) \phi_c(\cdot) ?c?(?) ? d ( ? ) \phi_d(\cdot) ?d?(?)是以0为中心的高斯函数, ? m ( ? ) \phi_m(\cdot) ?m?(?)是以1为中心的高斯函数。在实验中,我们使用基线中的地面真相分割掩码和100个粒子。如表四所示,在RGB和RGB-D场景中,PoseRBPF的表现明显优于使用标准粒子过滤器的基线。这些比较证明了PoseRBPF在6-D姿势跟踪中比标准粒子过滤器有更高的采样效率,以及学习到的自动编码器网络在处理输入图像的光照差异和噪声时提供的鲁棒性。

此外,我们将我们的方法与其他6-D物体姿势跟踪方法[25], [36], [72], [73]进行了比较。在RGB-D追踪方面,我们的方法取得了与最近最先进的方法[72]相当的精确度。对于基于RGB的跟踪,我们的方法不如基于细化的方法(如[36])准确。与现有的六维物体姿态跟踪系统相比,我们的方法仍然提供了一个有用的选择,因为我们的方法跟踪完整的六维姿态分布,并且只需要二维检测中心进行初始化,而不是像DeepIM[36]那样需要初始化六维姿态估计。

表五显示了颗粒数量对跟踪速度和精度的影响。当粒子数较少时,随着粒子数的增加,精确度会提高,因为有了更多的样本,物体的尺度和平移的变化会被覆盖得更好。然而,我们也可以观察到,跟踪性能在100个粒子之后就会饱和,100个粒子的性能与200个粒子的性能相似。

表五

表五

G. 旋转分布的分析

与其他6-D姿势估计方法不同的是,PoseRBPF对物体的3-D旋转输出单一的估计值,PoseRBPF跟踪物体旋转的全部分布。图8显示了旋转的例子分布。这些分布中有两类不确定因素。第一个来源是物体的对称性导致了具有类似外观的多个姿势。正如预期的那样,每个视点的集群都对应于一个相似性模式。每个集群的方差对应于姿势的真实不确定性。例如,对于碗来说,每个旋转环对应于方位角的不确定性,因为碗是一个旋转对称的物体。不同的环显示了仰角上的不确定性。

图八

图8. 旋转分布的可视化。对于每幅图像,旋转的分布是可视化的。线条代表高于阈值的旋转的概率。每条线的长度与该视点的概率成正比。可以看出,PoseRBPF自然地表示了由于各种对称性造成的不确定性,包括碗的旋转对称性和T-LESS物体的镜像对称性12。

为了衡量PoseRBPF对旋转不确定性的把握程度,我们将PoseRBPF的估计值与PoseCNN的估计值进行了比较,假设高斯不确定性的平均值为PoseCNN的估计值。图9显示了YCB视频数据集中的剪刀和泡沫砖的这种比较。这里,X轴的范围是旋转分布的百分位数,Y轴显示了地面真实姿势在相应百分位数所包含的一个旋转的0?、10?或20?之内的频率。例如,对于剪刀,红色实线表示80%的时间里,地面真实的旋转是在PoseRBPF分布的前20%的旋转的20?以内。如果我们采取PoseCNN估计的前20%的旋转,假设有高斯不确定性,这个数字会下降到60%左右,如下面的虚线、红线所示。对于具有180?对称性的泡沫砖,保持多模态不确定性的重要性变得更加突出。在这里,PoseRBPF实现了高覆盖率,而PoseCNN则未能产生良好的旋转估计值,即使在进一步远离生成的估计值时也是如此。

图九

图9. PoseRBPF和PoseCNN对剪刀和泡沫砖的旋转覆盖率比较。泡沫砖有180?的平面旋转,而剪刀是一个不对称的物体。

H. 全局定位

在前面的讨论中,我们重点讨论了物体姿势跟踪,其中PoseRBPF是由二维检测框架初始化的,如[39]和[75]。然而,没有概念上的理由说明为什么PoseRBPF不能被部署到全局姿势估计中,从而克服了对检测框架的需求。在此,我们提出一种基于全局采样的方法来初始化系统。我们首先通过对图像中物体的二维中心p进行均匀采样,对物体的距离在[ZDk § - 0.1, ZDk §+0.2]中进行均匀采样。我们评估2400个样本,找到最可能的一个,并在其周围以细粒度的方式取样100个粒子:对于图像中的物体中心和距离,我们分别用标准偏差为5像素和0.015米的高斯函数取样。当所有粒子之间的最大相似性分数大于阈值(0.6)时,我们开始跟踪该物体;否则,我们重复全局定位过程。我们在图10中直观地展示了全局定位过程、成功的初始化例子和失败的案例。我们在YCB视频数据集上评估了全局定位策略。利用所提出的全局定位策略,我们的跟踪系统可以在YCB视频数据集中所有物体的55个测试序列中的49个中成功初始化,其结果是ADD为83.45,ADD-S为89.06。在我们的实验中,我们观察到初始化失败发生在物体的深度测量缺失(金枪鱼罐头),或者物体被严重遮挡(布丁盒),或者物体的纹理与模型有明显不同(木块)。

图十

图10. YCB视频数据集上的全局定位的可视化。(a) 全局定位过程。我们在翻译空间中均匀地对粒子进行采样。在评估了所有的粒子后,我们在具有最大权重的粒子周围进行细粒度的采样。当所有粒子之间的最大相似性分数高于阈值时,跟踪过程被触发。(b) 成功的初始化。(c) 失败的情况。

5. 结论

在这篇文章中,我们介绍了PoseRBPF,一个用于跟踪6维物体姿势的Rao-Blackwellized粒子过滤器。每个粒子对3-D平移进行采样,并估计3-D旋转的分布,其条件是对应于采样平移的图像绑定盒。PoseRBPF将每个绑定盒嵌入与学习到的观点嵌入进行比较,以便随着时间的推移有效更新分布。我们证明了跟踪的分布既能捕捉到物体对称性的不确定性,又能捕捉到物体姿势的不确定性。在两个基准数据集上的实验表明,PoseRBPF有效地估计了家用物体和无对称纹理的工业物体的6维姿势。

PoseRBPF有几个局限性,有待解决。当物体被严重遮挡或测量结果与合成训练数据有明显差异时,PoseRBPF会失败。图11说明了在YCB视频数据集中由于遮挡而导致的跟踪失败。我们显示了物体被遮挡的比率和所有粒子的最大相似度得分。可以看出,最大相似度随着闭塞度的增加而降低。在这个例子中,当最大相似度低于0.6时,系统就会判定失败,这相当于65%的物体被遮挡。处理遮挡问题的一个潜在方法是用视觉测距法更准确地估计摄像机的运动,这样粒子过滤器对观测更新的依赖就会减少。用真实的注释数据对神经网络进行微调,可以有效地弥补合成训练数据和真实测试测量之间的领域差距,这也促使我们以自我监督的方式注释真实数据的工作[13]。另一个限制是,每个对象都需要它自己的自动编码器。为多个不同的物体训练一个自动编码器是值得探索的。此外,通过用连续函数表示旋转分布来改进方向估计是值得研究的。

图十一

由于闭塞导致的跟踪失败的例子。该图显示,最大相似度(蓝色曲线)随着闭塞度(红色曲线)的增加而降低。在我们的实现中,当最大相似度低于0.6时,系统就会确定追踪失败。因此,在这个例子中,我们的系统可以在失败之前处理大约65%的遮挡。
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-02 14:40:59  更:2021-10-02 14:55:30 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 12:47:57-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码