Equalization Loss v2: A New Gradient Balance Approach for Long-tailed Object Detection
论文观点与表现:
- 长尾学习的问题是正负样本梯度不平衡导致的
- EQLV2是一个梯度调整机制,能够独立和公平的重新平衡每个类别
- 三个思考:
- 梯度调整机制怎么调?
- 独立平衡每个类别,是如何做到的?
- 公平的平衡方法,怎么样实现并且对于头部数据影响如何?
实现原理:
-
EQLossv2的实例和任务:
- 一个实例有1个正标签、有
C
?
1
{\mathcal C}-1
C?1个负标签;并且期望只有正标签类别的置信度分数比较高、其他类别的置信度分数低,为实现有以下操作:
- 计算Positive samples
m
j
p
o
s
{m}_{j}^{pos}
mjpos?
- 计算Negative samples
m
j
n
e
g
{m}_{j}^{neg}
mjneg?
- Positive and Negative Samples ratio:
(
n
j
)
/
(
N
?
n
j
)
{(n_{j})}/{(N-{n}_{j})}
(nj?)/(N?nj?) -----
N
N
N表示样本总数目、
n
j
{n}_{j}
nj?表示
j
j
j类的样本数目。
-
EQLlossv2的梯度重加权
-
明确一个问题:
m
j
p
o
s
?
{m}_{j}^{pos}{\ll}
mjpos??
m
j
n
e
g
{m}_{j}^{neg}
mjneg?,对于尾部数据而言必然遵从、而对于头部数据可能为
m
j
p
o
s
≤
{m}_{j}^{pos}{\le}
mjpos?≤
m
j
n
e
g
{m}_{j}^{neg}
mjneg? -
对于神经网络而言,大量的Easy Negative 起到的作用可能小于少部分的Hard Positives -
进一步提出EQLv3的重加权:
- 核心观念是:提高正样本权重比例,降低负样本的权重。
|