作者文章:地址
github代码:地址
一、作者的motivation
在自动驾驶中往往需要更大尺度的场景,面对大尺度场景需要克服两个限制:
(1)Non-representative数据集
当前存在的数据集在大尺度实际场景应用,无法表现的太好,主要原因:
- 覆盖的地理区域太小
- 场景图片地理分布太稀疏,如下图中MSLS
- 当前存在的数据集都是分割成地理位置不相交的集合,用于训练和推理
弊端:在这些数据集进行训练,没有找到真世界中场景的相关性
(2)Scalability of training
- 当前热门的方法大都使用对比学习(大多数依赖三元损失函数triplet loss),挖掘negative examples是一个很昂贵的操作
- 现有的挖掘方法,也存在收敛速度慢,数据使用有效性差的缺点
贡献:
- 稠密大尺度数据集SF-XL,大约是当前存在数据集规模的30倍,并且包括Crowd-sourced(i.e., multi-domain)
- 提出一个CosPlace方法,利用图像分类任务的方法训练模型,提取有区分性的描述子,该方法相当简单,不需要挖局负例,就可以从大量数据中完成有效的学习
- 与当前SOTA方法相比,GPU显存大约减少80%,embeddings也要小8倍,在其他数据集也有很好的泛化能力
二、相关工作
-
Visual geo-localization - 看成图像检索任务 缺点:由于挖掘负例代价昂贵,导致训练时间长;Netvlad,PCA减少描述子维度,会导致表现退化。 -
Visual geo-localization - 看成图像分类任务 缺点:精度太差 -
本文方法结合这两种方式: 利用不需要挖掘负例的分类任务训练模型,分类策略旨在利用稠密数据的可用性,并确保如果两个图像来自同一个类,它们将显示相同的场景。此外,与以前任务不同的是,经过训练后,本文方法可以通过对任何给定地理区域的图像检索来执行地理定位。
三、旧金山SF-XL数据集
-
数据库:Database ? - 训练集:整座旧金山城市41.2M图片,包括6DOF的GPS信息和朝向方位角度,从2009年至2021年。 ? - 测试集:仅有2.8M图片,从2013年开始,仍然覆盖整个几何区域 ? - 验证集:8K数据库图片,8K查询图片 -
查询:Queries 思想:数据库和查询集合的拆分需要合适的分割方法,否则会影响结果。test queries不应该和Database来自相同的域,因为真实世界测试总是来自未见过的区域,本文的test queries包含两部分: ? test set v1: 从Flicker收集1000张图片,给出不精确的GPS坐标,所有图片都是手工选择,定位已经被验证 ? test set v2: 从San Francisco Landmark Dataset选取598张图片,利用方法生成6DOF坐标。
四、方法
? 首先简单批评一下现有的比较好的方法的缺点:
? (1)训练的时候需要定期计算所有数据库图片的特征,时间和空间复杂度
O
(
n
)
\mathcal{O}(n)
O(n),仅适用于小数据集。
? (2)基于NetVLAD和其变体的方法,描述子向量维度过高,推理阶段需要大量的内存占用,PCA减少维度,会导致结果退化。
? 受到人脸识别的启发,cosFace和arcFace是其实现最佳结果的关键,需要把训练集分类。但是SX-XL数据集标签空间是连续的,分类并不直观,所以引入下面方法:
-
数据集分类: 利用UTM坐标
{
e
a
s
t
,
n
o
r
t
h
}
\{east, north\}
{east,north}将数据库分成正方形地理单元格,然后根据每张图片的方位/朝向
{
h
e
a
d
i
n
g
}
\{heading\}
{heading},进一步把每个单元格分成一组类。定义类
C
e
i
,
n
j
,
h
k
C_{e_i,n_j,h_k}
Cei?,nj?,hk??内的图片集合为
{
x
:
?
e
a
s
t
M
?
=
e
i
,
?
n
o
r
t
h
M
?
=
n
j
,
?
h
a
d
i
n
g
α
?
=
h
k
}
\{x:\lfloor \frac{east}{M} \rfloor = e_i, \lfloor \frac{north}{M} \rfloor = n_j, \lfloor \frac{hading}{\alpha} \rfloor = h_k\}
{x:?Meast??=ei?,?Mnorth??=nj?,?αhading??=hk?} 其中
M
M
M和
α
\alpha
α分别表示确定类单元格范围位置和朝向的长度(米)和角度(度)。 虽然这种解决方案可以从数据集创建一组类,但它有一个很大的局限性:由于量化误差,几乎相同的图像(例如,以相同的方向拍摄,但相距几厘米)可能被分配到不同的类如下图,会妨碍分类方法的训练。 本文的方法是不一次性训练所有类,而是仅训练不相邻的类(如果位置或朝向上的微小差异,可以将图片从一个类带到另一个类,则两个类是相邻的),这些组称为CosPlace Groups,类似于单独的数据集,每一次训练一个group。 生成groups的原则是:一个group中的任意两个类,在平移和朝向上有一个最小的间隔数值。引入两个超参数,
N
N
N控制同一group中的任意两个类之间最小单元格数量,
L
L
L表示同一个单元格内相隔多少个
α
\alpha
α角度选取图片。具体如下图: ? 按照图中的逻辑,水平竖直各相隔N的M长度单元格选取类,每个单元格内部再每隔
L
L
L个
α
\alpha
α角度选取图片放进一个group,图中设置
α
=
6
0
°
,
?
N
=
3
,
?
L
=
2
\alpha = 60^{\circ},\space N = 3, \space L = 2
α=60°,?N=3,?L=2,那么一共有多少个群组呢?答案是
3
×
3
×
2
=
18
3\times3\times2 = 18
3×3×2=18个,图中的橙色和紫色其实就是表示同一个单元格每隔
α
×
L
=
12
0
°
\alpha \times L = 120^\circ
α×L=120°采样
6
0
°
60^\circ
60°范围内的图片放入一个group中,那么一个类单元格就分成2个群组,然后再水平竖直每隔3个单元格,又分成
3
×
3
=
9
3\times3=9
3×3=9个组,两个相乘就是18个群组。 ? 根据上述解释定义CosPlace Group
G
u
v
w
G_{uvw}
Guvw?为:
G
u
v
w
=
{
C
e
i
n
j
h
k
:
(
e
i
m
o
d
??
N
=
u
)
∧
(
n
j
m
o
d
??
N
=
v
)
∧
(
h
k
m
o
d
??
L
=
w
)
}
G_{uvw} = \{C_{e_in_jh_k}:(e_i \mod N = u)\wedge(n_j \mod N = v) \land (h_k \mod L= w)\}
Guvw?={Cei?nj?hk??:(ei?modN=u)∧(nj?modN=v)∧(hk?modL=w)} 每个CosPlace Group之间都是非连通集合。性质如下: (1) 每一个类别都明确一个群组(我认为应该是一个类别单元格会明确分给
L
L
L个群组) (2) 同一个群组,如果两张图片属于不同的类,它们至少相隔
M
?
(
N
?
1
)
M\cdot(N-1)
M?(N?1)米,或者相隔
α
×
(
L
?
1
)
\alpha \times (L-1)
α×(L?1)度 (3) CosPlace Groups总数目为
N
×
N
×
L
N \times N \times L
N×N×L (4) 没有任何两个连通的类属于同一个群组(除非
N
=
1
N=1
N=1或者
L
=
1
L=1
L=1) -
训练网络: 受到LCML也被称为cosFace的启发,但是原本的LCML不能直接应用到该数据集,因为图像数据没有被分成有限数量的类。然而通过上述的数据集分区方法,可以在每个CosPlace groups上顺序执行LCML(其中每个组可以被视为一个单独的数据集),并在许多组上进行迭代。由于LCML需要全连接层对应类别数,训练阶段每一个群组都需要一个全连接层,在验证和测试阶段不需要全连接层。注意并不是所有群组都是需要的,单一一个群组也可以训练,文章中图10消融实验证明,多于一个群组,效果会更好一点。按顺序训练每个群组:
L
c
o
s
P
l
a
c
e
=
L
l
m
c
l
(
G
u
v
w
)
\mathcal L_{cosPlace} = \mathcal L_{lmcl}(G_{uvw})
LcosPlace?=Llmcl?(Guvw?)
L
l
m
c
l
\mathcal L_{lmcl}
Llmcl? 是LCML loss,
u
∈
{
0
,
.
.
.
,
N
}
,
?
v
∈
{
0
,
.
.
.
,
}
,
?
W
∈
{
0
,
.
.
.
,
L
}
.
u \in \{0,...,N\},\space v \in \{0,...,\},\space W\in\{0,...,L\}.
u∈{0,...,N},?v∈{0,...,},?W∈{0,...,L}. 就按照
G
000
,
?
G
001
,
.
.
.
G_{000},\space G_{001},...
G000?,?G001?,...的顺序依次迭代群组。
五、实验
-
实施细节: ? 架构:一个标准的CNN backbone(VGG16) + GeM pooling + fully connected layer(output 512)。在消融实验和预实验也使用了ResNet18,结果差不多,也在各个框架都试了一下,其中ResNet101+128-D描述子结果表现超过当前使用4096-D描述子的SOTA方法。 ? 训练:超参数设置,
M
=
10
,
?
α
=
3
0
°
,
?
N
=
5
,
?
L
=
2
M = 10, \space \alpha = 30^\circ, \space N = 5, \space L = 2
M=10,?α=30°,?N=5,?L=2. 每个epoch执行一个群组迭代10k次,一个群组一个epoch,一共50个epochs(例如:batchsize = 32,500k次迭代)。在训练期间,为了每个群组可以多次看到,仅使用8个groups(50个群组中的8个,代码中是0~7)。每训练一次验证一次,训练结束,测试集在验证集表现最好的模型上测试。更多的细节看附录。 -
方法比较: ? 比较25米阈值的recall@N,结果更好。还比较了内存占用,描述子维度,都是最佳的,具体看文章。 -
计算效率: ? 内存占用;GPU需求,CosPlace只需要7.5GB、单GPU2080Ti训练;描述子维度和其他方法相比非常小;训练测试速度更快。 -
消融实验: ? 超参数
M
,
N
,
L
,
α
M,N,L,\alpha
M,N,L,α;backbone和描述子维度等等,具体结果看文章附录。 -
限制: ? 使用了Heading labels,Pitts30K和MSLS没有该数据,CosPlace无法在上面训练;研究了较小训练集的训练,但是并没有达到SOTA的结果,所以该方法并不适合在小训练集训练。
六、附录:B.2 进一步实施细节
- 为了更好的表示每个类,对于训练期间的数据,保证每个单元格内至少10张全景图,抛弃了大约15%的图片
- 超参数
M
=
10
,
α
=
30
,
N
=
5
,
L
=
2
M = 10,\alpha = 30, N = 5, L = 2
M=10,α=30,N=5,L=2得到50个群组,每个组大概35k个类,每个类平均包含19.8张图片
- 训练阶段仅训练50个群组中的8个,包含大约5.6M张图片,将来的工作也可以修改这个参数
- 优化器:Adam optimizer,lr = 0.00001,batchsize = 32,数据增强采用color jittering,random cropping
- cosFace loss 的 margin = 0.04
? 以上就差不多是这篇文章的全部内容,其实主要思想还是利用heading labels对稠密的图片进行数据划分,来更好的提取特征,但是文章中的数据集主要集中在旧金山城镇街道,一些户外数据集或者相似区域的图像检索,效果如何不能确定,但这种思想值得借鉴,为数据集进行非连通的分类分组。
? 最后欢迎大家留言讨论!
|