论文名称:Closed-loop Matters: Dual Regression Networks for Single Image Super-Resolution 论文下载地址:https://arxiv.org/pdf/2003.07018.pdf 论文代码地址:https://github.com/guoyongcs/DRN 但是代码有问题
论文标题:
1.论文概述
- 深度神经网络通过学习从低分辨率(LR)图像到高分辨率(HR)图像的非线性映射,已经在图像SR领域展现出良好的性能。但是现有的SR方法却存在两个潜在的缺陷:
- 学习从低分辨率图像到高分辨率图像的非线性映射是一个典型的ill-posed problem(我在去模糊2那篇文章里介绍了这个概念)。因此,很难寻找到一个好的解决方案。
- 在现实应用中,成对的LR-HR数据可能并不一定可以获得(现有的SR方法大多是采用成对LR-HR数据进行训练)并且潜在的退化模型经常是未知的。这造成了模型的自适应能力差,并不适合实际应用。
- 为了解决上面的问题,作者提出了一个对偶回归方案,通过在LR数据上引入额外的约束来减少可能的映射(函数)空间。具体而言,除了学习从LR图像到HR图像的映射,该方案还要学习一个额外的对偶回归映射来评估降采样核和重建LR图像。这就形成了一个闭环,提供了额外的监督。
- 在配对的训练数据和未配对的现实数据的SR任务上的大量实验证明了我们的方法比现有方法更加优越。
2.论文提出的背景
3.论文中提出的方法
3.1 用于成对数据的对偶回归方案
??现有的方法仅仅集中于学习从LR图像到HR图像的映射。但是,可能存在的映射空间非常大,这造成了训练非常困难。为了解决这个问题,作者提出了对偶回归方案。具体而言,除了学习从LR到HR的映射,我们还要学习从HR到LR的相反映射。 让
x
∈
X
\mathrm{x} \in \mathcal{X}
x∈X为LR图像,
y
∈
Y
\mathrm{y} \in \mathcal{Y}
y∈Y为HR图像。我们同时学习原始映射
P
P
P来重建HR图像以及对偶映射
D
D
D来重建LR图像。对偶映射可以视为对降采样核的评估。我们将SR问题转化为对偶回归方案,这涉及两个回归任务:
- 定义一(原始回归任务): 我们寻找一个函数
P
P
P:
X
→
Y
\mathcal{X} \rightarrow \mathcal{Y}
X→Y,使得预测
P
(
x
)
P(x)
P(x)与它对应的HR图像y尽可能相似。
- 定义二(对偶回归任务): 我们寻找一个函数
D
:
D:
D:
Y
→
X
\mathcal{Y} \rightarrow \mathcal{X}
Y→X,使得预测
D
(
y
)
D(y)
D(y)和原始输入LR图像x尽可能相似。
原始和对偶回归任务可以形成一个闭环结构并对训练模型
P
P
P和
D
D
D提供信息监督。如果
P
(
x
)
P(x)
P(x)是正确的HR图像,那么对偶回归预测的降采样图像
D
(
P
(
x
)
)
D(P(x))
D(P(x))应该尽可能的接近输入LR图像x。在这种约束情况下,我们可以减少可能的映射空间并使得模型更容易学习更好的映射来重建HR图像。
??通过结合学习这两个回归任务,作者提出的训练模型的方法如下:给定
N
N
N对样本
S
P
=
{
(
x
i
,
y
i
)
}
i
=
1
N
\mathcal{S}_{P}=\left\{\left(\mathbf{x}_{i}, \mathbf{y}_{i}\right)\right\}_{i=1}^{N}
SP?={(xi?,yi?)}i=1N?,其中
x
i
x_i
xi?和
y
i
y_i
yi?表示第
i
i
i对低分辨率图像和高分辨率图像。训练损失定义如下:
∑
i
=
1
N
L
P
(
P
(
x
i
)
,
y
i
)
?
primal?regression?loss?
+
λ
L
D
(
D
(
P
(
x
i
)
)
,
x
i
)
?
dual?regression?loss?
(
2
)
\sum_{i=1}^{N} \underbrace{\mathcal{L}_{P}\left(P\left(\mathbf{x}_{i}\right), \mathbf{y}_{i}\right)}_{\text {primal regression loss }}+\lambda \underbrace{\mathcal{L}_{D}\left(D\left(P\left(\mathbf{x}_{i}\right)\right), \mathbf{x}_{i}\right)}_{\text {dual regression loss }} \quad\quad\quad\quad\quad\quad (2)
i=1∑N?primal?regression?loss?
LP?(P(xi?),yi?)??+λdual?regression?loss?
LD?(D(P(xi?)),xi?)??(2) 在这里
λ
λ
λ控制对偶回归损失的权重。经过消融实验对比,当
λ
λ
λ=0.1时产生了最好的结果。
3.2 用于不成对数据的对偶回归
??在现实世界里,更为普遍的SR案例是没有与之对应的HR数据的,并且LR图像的退化模型通常也未知。这样的案例使得现有的SR方法经常导致严重的自适应问题。为了减轻这个问题,作者提出了算法一来使SR方法适应新的LR数据。训练算法如下图所示: ??对偶回归映射学习潜在的退化方法,并不一定依赖于HR图像。因此我们可以使用它直接学习真实世界里未成对的LR数据来解决模型自适应问题。为了确保HR图像的重建性能,我们也引入了成对合成的数据。使用所提出的对偶回归方案,我们能够使SR方法适应各种各样不成对的数据,同时保留很好的重建性能。具体而言,给定
M
M
M个未成对的LR样本和
N
N
N个成对的LR-HR样本,目标损失函数定义为:
∑
i
=
1
M
+
N
1
S
P
(
x
i
)
L
P
(
P
(
x
i
)
,
y
i
)
+
λ
L
D
(
D
(
P
(
x
i
)
)
,
x
i
)
(
2
)
\sum_{i=1}^{M+N} \mathbf{1}_{\mathcal{S}_{P}}\left(\mathbf{x}_{i}\right) \mathcal{L}_{P}\left(P\left(\mathbf{x}_{i}\right), \mathbf{y}_{i}\right)+\lambda \mathcal{L}_{D}\left(D\left(P\left(\mathbf{x}_{i}\right)\right), \mathbf{x}_{i}\right) \quad (2)
i=1∑M+N?1SP??(xi?)LP?(P(xi?),yi?)+λLD?(D(P(xi?)),xi?)(2) 在这里,当
x
i
∈
S
P
\mathbf{x}_{i} \in \mathcal{S}_{P}
xi?∈SP?时,
1
S
P
(
x
i
)
\mathbf{1}_{\mathcal{S}_{P}}\left(\mathbf{x}_{i}\right)
1SP??(xi?)等于1,否则等于0。
3.3 训练方法
训练成对数据: 当给定了成对数据后,按照常见的有监督SR方法来训练模型,并最小化损失函数等式1。 训练不成对数据: 如算法1中所示,每一次迭代时先采样m个不成对数据和n个成对数据。然后端到端的训练模型,并最小化损失函数等式2。为了收敛,我们将不成对数据的数据率为
ρ
\rho
ρ:
ρ
=
m
/
(
m
+
n
)
(
3
)
\rho=m /(m+n) \quad\quad\quad\quad\quad\quad\quad\quad(3)
ρ=m/(m+n)(3) 根据论文总的消融实验证明,当
ρ
\rho
ρ=30%时获得了最好的结果。
|