IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> (DPIR)Plug-and-Play Image Restoration with Deep Denoiser Prior -> 正文阅读

[人工智能](DPIR)Plug-and-Play Image Restoration with Deep Denoiser Prior

基于深度去噪的即插即用图像恢复

摘要

问题:当更深更大的CNN模型迅速流行时,现有的即插即用图像恢复由于缺乏合适的去噪器而阻碍了其性能。

为了突破即插即用图像恢复的局限性,我们通过训练一个高度灵活有效的CNN去噪器,建立了一个基准深度去噪器。然后,我们将深度去噪器作为一个模块插入到基于半二次分裂的迭代算法中,以解决各种图像恢复问题。

一、介绍

从贝叶斯的角度来看,解x可以通过解决最大后验概率(MAP)估计问题得到:

其中logp(y|x)表示观测y的对数似然值,logp(x)表示干净图像x的先验值,与退化图像y无关。

?(1)可以重新表述为:

?数据项(第一项)保证解决方案符合退化过程,而先验项(第二项)通过在解决方案上强制要求的属性来减轻图像恢复这种逆问题的不适性。

一般来说,求解(2)的方法可以分为两大类:(1)基于模型的方法;(2)基于学习的方法。

前者的目标是通过一些优化算法直接求解(2),而后者主要是通过在包含N个退化-干净图像对{(yi,xi)}的训练集上优化损失函数来训练。

基于学习的方法通常被建模为下面的双层优化问题:

基于模型的方法与基于学习的方法的一个主要区别是:基于模型的方法可以通过简单指定T来灵活地处理各种IR任务,并且可以直接对退化的图像y进行优化;而后者在测试前需要繁琐的训练来学习模型,并且通常受到专门任务的限制。

然而,基于学习的方法不仅测试速度快,而且由于端到端的训练,往往可以提供更好的性能。相比之下,基于模型的方法通常是耗时的,为了获得良好的性能,需要复杂的先验。

因此研究综合利用它们各自的优点将是很有吸引力的。这种集成产生了深度即插即用IR方法:它用基于学习的CNN去噪先验代替了基于模型优化的去噪子问题。

其主要思想是借助变量分裂算法,如乘数交替方向法(ADMM)和半二次分裂法(HQS),可以分别处理数据项和先验项,特别是先验项只对应一个去噪子问题,可以通过深度CNN去噪来解决。

本文是对我们之前的工作(IRCNN)的扩展,使用了更灵活、更强大的深度CNN去噪器。受FFDNet的启发,提出的深度去噪可以通过一个单一的模型,以噪声水平映射为输入处理大范围的噪声水平。利用ResNet和U-Net的优点,提高了其有效性。提出了一种新的周期性几何自集成方法,在不增加计算量的情况下提高了性能。

?贡献

(1)一个灵活和强大的深度CNN去噪训练。该方法不仅优于现有的深度高斯去噪模型,而且适用于即插即用IR去噪。

(2)本文从参数设置、中间结果和经验收敛等方面对基于HQS的即插即用IR进行了深入分析,从而更好地理解其工作机理。

(3)在去模糊、超分辨率和消噪方面的大量实验结果表明,所提出的即插即用IR深度去噪先验的优越性。

二、相关工作

即插即用IR通常包括两个步骤:

(1)通过一定的变量分裂算法将目标函数的数据项和先验项解耦,得到一个由数据子问题和先验子问题交替求解组成的迭代方案。

(2)是用现成的去噪器(如K-SVD、非局部均值、BM3D)解决先验子问题。

即插即用IR虽然可以利用CNN去噪器强大的表达能力,但现有方法一般利用DnCNN或IRCNN,没有充分利用CNN。

通常,即插即用IR的降噪器应该是非盲的,并且需要处理大范围的噪声水平。然而,DnCNN需要针对每个噪声级分别学习一个模型。虽然IRCNN去噪器可以处理范围广泛的噪声水平,但它由25个独立的7层去噪器组成,其中每个去噪器在间隔噪声水平为2的情况下进行训练。这种降噪器有两个缺点。首先,它不能灵活地设定一个特定的噪音等级。第二,由于浅层,它不够有效。

基于上述考虑,有必要设计一种灵活、强大的去噪器来提高即插即用IR的性能。

为什么不对PnP IR使用盲高斯去噪?

即插即用IR去噪的设计应采用非盲高斯去噪。原因有两方面

(1)如即插即用IR迭代解(6b)(下文)所示,该子问题实际上对应于高斯噪声级的非盲高斯去噪问题。

(2)虽然盲高斯去噪可以解决非盲高斯去噪问题,但对于即插即用IR来说,高斯去噪的作用是平滑未知噪声(如迭代过程中引入的结构噪声),而不是去除高斯噪声。

如第6节所示,迭代过程中的噪声分布通常是非高斯分布,并且随着不同的IR任务甚至不同的迭代而变化。此外,我们将在第5.1.4节中看到,非盲高斯去噪可以通过设置适当的噪声级来平滑非高斯噪声,但盲高斯去噪没有这种能力,它只能去除类高斯噪声

三、学习深度CNN去噪先验

从贝叶斯的角度来看,即插即用IR去噪应该是高斯去噪。因此,可以在干净图像中加入合成高斯噪声进行监督训练。

也许最适合即插即用IR降噪的是FFDNet,它以噪声水平图作为输入,可以处理大范围的噪声级。然而,FFDNet仅具有DnCNN和IRCNN的性能,因此缺乏提高即插即用IR性能的有效性。为此,我们提出利用目前广泛使用的U-Net和ResNet进行架构设计,对FFDNet进行改进。

3.1?去噪网络体系结构

U-Net对于图像到图像的平移是有效且高效的,而ResNet在通过叠加多个残块来增加建模能力方面更有优势。

在FFDNet以噪声水平图为输入的基础上,本文提出的去噪算法即DRUNet进一步将残差块整合到U-Net中,实现有效的去噪先验建模。

这项工作的重点是提供灵活和强大的预先训练的去噪,以有利于现有的即插即用IR方法,而不是设计新的去噪网络体系结构

Figure 1 DRUNet?

像FFDNet一样,DRUNet能够通过一个单一的模型处理不同的噪声水平。

结构说明

DRUNet的主干是由四个scales组成的U形网,每个尺度在2 × 2跨步卷积(SConv)下采样和2 × 2转置卷积(TConv)上采样操作之间有一个恒等跳跃连接(identity skip connection)。

从第一个尺度到第四个尺度,每一层的通道数量分别为64、128、256和512。

每个尺度的下采样和上采样采用四个连续的残差块。

第一层和最后一层卷积(Conv)以及SConv和TConv层都没有激活功能。每个残块只包含一个ReLU激活函数。

所提出的DRUNet是无偏差的,这意味着在所有的Conv、SConv和TConv层中都没有使用偏差。

原因

(1)具有ReLU激活和恒等跳过连接的无偏置网络自然增强了许多图像恢复任务的缩放不变性,即f(ax) = af(x)对任意标量a≥0都成立。

(2)从经验上观察到,对于有偏差的网络,偏差的大小会比滤波器的大得多,这反过来又会损害泛化性。

实验结果部分在后面

四、即插即用IR的HQS算法

(1)HQS算法的简单性和快速收敛性。

(2)为了获得良好的性能,需要仔细设置参数。

(3)提出一种周期性的几何自集成策略来潜在地提高性能。

4.1?半二次分裂(HQS)算法

1、为了解耦(2)的数据项和先验项,HQS引入了一个辅助变量z,得到了一个约束优化问题:

?2、(4)通过最小化以下问题来解决:

μ是一个惩罚参数。

3、这个问题可以通过迭代求解x和z的以下子问题来解决:

?数据项和先验项被解耦为两个独立的子问题。

具体来说,(6a)的目标是找到z(k?1)的近端点,通常有一个依赖于T的fast closed-form solution,而(6b)从贝叶斯的角度来看,对应的是xk上的高斯去噪,噪声级为根号下λ/μ。

因此,任意高斯去噪可以代入交替迭代来求解(2)。

为了解决这个问题,我们将(6b)改写如下:

可以从(7)中得到两个观察结果:

  • 先验R(·)可以通过降噪隐式地指定。因此,即插即用IR的先验和去噪通常被称为去噪先验
  • 学习一个单独的CNN去噪器来替代(7)是很有趣的,以利用CNN的优势,例如网络设计的高度灵活性、GPU上的高效率和强大的深度网络建模能力

4.2?参数设置的一般方法

从(6a)和(6b)之间的交替迭代中,有三个可调参数,包括惩罚参数μ、正则化参数λ和总迭代次数K。

为了保证xk和zk收敛到一个固定点,需要一个较大的μ,但这需要一个较大的K来收敛。因此,通常的方法是采用延续策略逐渐增加μ,从而产生μ1<…<μk<…<μK的序列。然而,需要引入新的参数来控制步长,使得参数设置更加复杂。

由(7)可以看出,在去噪先验的第k次迭代中,μ控制了噪声水平;另一方面,对于σk来说,[0,50]的噪声水平范围就足够了。

?受到这些领域知识的启发,我们可以通过设置σk和λ来隐式地确定μk。根据σk应该是单调递增的事实,我们在对数空间中将σk从大噪声水平σ1均匀采样到小噪声水平σK。这意味着可以通过确定μk。

σ1固定为49,而σK由图像噪声水平σ确定。由于K是用户指定的,且σK具有明确的物理含义,因此它们实际上很容易设置。

目前为止,要设置的其余参数是λ,由于λ来自于先验项,因此应该是固定的,我们可以通过在验证数据集上进行grid serch来选择最优λ。

根据经验,λ可以在[0.19,0.55]范围内产生良好的性能。在本文中,除非另有说明,否则我们将其修改为0.23。需要注意的是,由于λ可以被吸收到σ中,并且在数据项和先验项之间起着控制折衷的作用,因此可以通过将σ乘以标量隐式地调整λ。

为了对参数设置有清晰的认识,在图5中,取,并假设σK= σ = 1,绘制出不同迭代次数K= 8、24、40时的αk和σk值。

4.3 周期几何自集成

于翻转和旋转的几何自集成是一种常用的提高IR性能的策略。首先通过翻转和旋转对输入进行变换,生成8幅图像,然后将这8幅图像输入到模型中得到相应的恢复图像,最后进行反变换得到平均结果。虽然可以通过几何自集成获得性能增益,但其代价是增加推理时间。

与上述方法不同的是,我们在每连续8次迭代中周期性地应用几何自集成。在每次迭代中,去噪前有一个变换,去噪后有对应的逆变换。请注意,由于降噪先验模型的输入在迭代过程中会发生变化,因此放弃了平均步骤。我们把这种方法称为周期几何自集合。它的显著优点是总的推理时间不会增加。我们发现,几何自集成总体上可以提高PSNR 0.02dB ~ 0.2dB。

去噪实验部分

3.2 训练细节

数据集:包含400张BSD图像、4744张Waterloo Exploration Database、900张DIV2K数据集、来自Flick2K数据集的2750张图像。

输入:干净图像x对应的噪声图像y是通过加上噪声水平为σ的AWGN得到的。噪声水平图用σ填充的均匀图,并且具有与噪声图像相同的空间大小。

噪声水平:为了处理大范围的噪声等级,噪声等级σ是在训练期间从[0,50]中随机选择的。注意噪声图像并没有被裁剪到[0,255]的范围内。原因是剪切操作会改变噪声的分布,从而导致即插即用IR解的不准确。

优化:通过Adam算法优化网络参数,使用L1损失,而不是L2损失(虽没有直接证据,但普遍认为L1损耗在处理异常值方面比L2损耗更稳健)。在去噪方面,AWGN的采样过程中可能会出现异常值。因此,在去噪网络训练中,L1损失比L2损失更稳定。

学习率:从1e-4开始,然后每100,000次迭代减少一半,在小于5e-7时结束。

3.3 去噪结果

3.3.1?灰度图像去噪

比较了提出DRUNet去噪与:

两种基于模型的方法BM3D和WNNM;五种基于CNN的方法,它们分别学习每个噪声水平的单个模型,即DnCNN,N3Net,NLRN,RNAN,FOCNet;两种基于CNN的方法,能够处理各种噪声水平,即IRCNN和FFDNet。

Table 1

  • 对于两个数据集上的所有噪声水平,DRUNet都能获得最佳的PSNR结果。具体来说:在Set12数据集上,DRUNet比BM3D的平均PSNR增益约为0.9dB,超过DnCNN、IRCNN和FFDNet的平均PSNR为0.5dB,在BSD68数据集上超过DnCNN、IRCNN和FFDNet的平均PSNR为0.25dB
  • 尽管NLRN、RNAN和FOCNet为每个噪声级学习了一个单独的模型,并具有非常有竞争力的性能,但它们无法胜过DRUNet

  • 可以看出,与BM3D、DnCNN、FFDNet相比,DRUNet能恢复更清晰的边缘,而与RNAN的结果相似

3.3.2?彩色图像去噪?

?由于现有的方法主要针对灰度图像去噪,因此我们只比较了DRUNet与CBM3D、DnCNN、IRCNN和FFDNet在颜色去噪方面的差异。

  • DRUNet的表现远远优于其他竞争方法
  • 尽管DnCNN在CBSD68数据集上有很好的性能,但在McMaster数据集上却没有很好的性能。这种差异强调了减小图像去噪训练和测试之间的图像域差距的重要性。?

  • ?DRUNet可以恢复比竞争方法更精细的细节和纹理

3.3.3 JPEG图像去块的扩展应用

DRUNet还适用于去除其他不同类型的噪声,例如JPEG压缩伪影。

通过简单地改变训练数据并用JPEG压缩的质量因子q代替AWGN的噪声级σ,训练了JPEG图像去块的DRUNet模型。我们将质量因子范围设置为[10,95],其中质量因子10表示较低的质量和较高的压缩。使用与去噪中相同的训练数据进行训练。

由于DnCNN3也被训练去噪和SISR,我们用我们的训练数据重新训练了一个非盲DnCNN3模型。与原DnCNN3模型相比,新模型在两个测试数据集上的平均PSNR增益分别为0.21dB和0.19dB。为了量化训练数据的性能贡献,我们还训练了一个训练数据较少的DRUNet模型。结果表明,PSNR平均降低了0.04dB,说明大量的训练数据可以略微提高JPEG图像的分块性能。

  • ?DRUNet的性能明显优于ARCNN、TNRD、DnCNN3和QGAC,平均PSNR比RNAN增益为0.15dB,进一步证明了本文提出的DRUNet的灵活性和有效性。

3.3.4?不可见噪声水平的通用性

为了展示无偏差的DRUNet的优势,我们还训练了一个DRUNet+B模型,该模型的偏差是从均匀分布中随机初始化的[?1,1]。

?该噪声图像具有200的非常大的不可见噪声水平。

由于DnCNN和IRCNN不具备更改噪声级的灵活性,我们首先将噪声图像乘以系数0.25,使噪声级从200变为50。然后应用DnCNN和IRCNN模型进行去噪,最后通过4的乘法得到去噪结果。

  • 即使在[0,50]的噪声级范围内进行训练,无偏差的DRUNet仍然可以很好地执行,而DRUNet+B(带偏差)引入了明显的视觉伪影,同时具有更低的PSNR
  • 无偏差的DRUNet可以提高对不可见噪声水平的泛化能力

3.3.5 消融实验

量化了不同因素的性能贡献,如残差块、训练数据、偏差和噪声水平图。

Case1:DRUNet没有跳过连接的残差块;

Case2:DRUNet减少训练数据;

Case3:DRUNet带偏差(即DRUNet + B);

Case4:DRUNet没有采取噪声水平图作为输入。

  • ?残差块可以简化训练以获得更好的性能
  • 在Set12数据集上,训练数据越多,性能趋于饱和,训练数据越多的DRUNet模型,PSNR平均提高0.01dB
  • 在训练噪声水平上,带偏差的DRUNet与无偏差的DRUNet具有相似的性能,但无偏差的DRUNet可以提高对不可见噪声水平的泛化能力
  • 噪声水平图引入了额外的噪声信息,提高了性能

五、实验(去模糊、SISR、彩色图像去马赛克

为了验证所提出的DPIR算法的有效性,考虑了三个经典的IR任务,包括图像去模糊、单图像超分辨率(SISR)和彩色图像去马赛克。

对于每个任务,我们将提供具体的退化模型、算法1中(6a)的快速解、K和σK的参数设置、z0的初始化以及与其他最先进方法的性能比较。

?输入:深度去噪先验模型(论文前面训练的),退化图像y,退化算子T,图像噪声σ,在总共K次迭代中,去噪先验模型在第k次迭代时的σk,权衡参数λ。

输出:恢复图像zk。

5.1 图像去模糊

使用均匀模糊(或图像反卷积)对模糊图像进行去模糊的退化模型通常表示为:

假设卷积是在圆形边界条件下进行的,?则(6a)的快速解由下式给出:

其中F(·)和F^?1(·)表示快速傅里叶变换(FFT)和逆FFT,\overline{F(\cdot )}表示F(·)的复共轭。可以注意到,模糊核k仅在(9)中涉及到。换句话说,(9)明确地处理模糊的失真

?5.1.1 定量与定性比较

考虑了如图6所示的6张经典测试图像和[76]中8个真实模糊核中的2个。?

具体来说,测试图像由3张灰度图像和3张彩色图像组成。其中House和leaf都是重复结构,可以用来评估非局部自相似先验。对于两个模糊核,它们的大小分别是17×17和27×27。

?也考虑了不同噪声水平2.55(1%)和7.65(3%)的高斯噪声。在此基础上,首先应用模糊核,然后加入带有噪声水平σ的AWGN来合成模糊图像。参数K和σK分别设置为8和σ。z0初始化为y。

四种具有代表性的方法:基于模型的EPLL方法、基于学习的非盲方法FDN、基于学习的盲方法DMPHN以及即插即用的方法IRCNN和IRCNN+。

?

  • DMPHN得到的PSNR值最低,这可能是由于缺少FFT模块
  • ?DPIR比EPLL和FDN的性能要好得多
  • 与IRCNN相比,DPIR的迭代次数为8次,但PSNR增益为0.2dB ~ 2dB
  • 在相同的迭代次数下,DPIR的性能显著优于IRCNN+,这说明在即插即用IR中,去噪起到了至关重要的作用
  • 在House and Leaves上,DPIR在IRCNN和IRCNN+上的PSNR增益比在其他图像上要大。一个可能的原因是,与IRCNN的浅层去噪方法相比,DRUNet去噪方法学习到的非局部自相似性更多。

视觉对比?

  • ?DMPHN可以去除噪声,但不能恢复图像的清晰度,而FDN倾向于平滑精细细节,产生颜色伪影
  • 虽然IRCNN和IRCNN+避免了颜色伪影,但它无法恢复精细的细节。相比之下,DPIR可以恢复图像的清晰度和自然度

5.1.2 中间结果与收敛性

图8(a)-(e)在图7的测试图像上提供xk和zk在不同迭代的视觉结果,而图8(f)显示了xk和zk的PSNR收敛曲线。

  • 虽然(6a)可以处理模糊失真,但与输入zk-1相比,它还加剧了噪声强度
  • 深度去噪先验起到去噪的作用,得到无噪声的zk
  • 与x1和x2相比,x8包含更多的精细细节,这意味着(6a)可以迭代地恢复细节
  • 由图8(f)可知,xk和zk具有快速收敛到不动点的特性

5.1.3 参数设置分析

虽然我们将总迭代次数K固定为8,第一次迭代的σ1噪声级别固定为49,但研究使用其他设置的性能是很有趣的。表7给出了图7测试图像在不同K和σ1组合下的PSNR结果

  • 较大的σ1,如39和49,可以产生更好的PSNR结果
  • 如果σ1很小,则需要指定较大的K以获得良好的性能,但这将增加计算负担。因此,K和σ1在效率和效果的权衡中起着重要的作用?

?5.1.4 采用盲DRUNet去噪的DPIR结果

通过去除噪声级图来训练盲的DRUNet去噪。在相同的参数设置下,我们使用盲DRUNet去噪器在噪声和模糊的树叶上提供了不同DPIR迭代的xk和zk的视觉结果和PSNR结果,如图9:

  • 经过盲去噪的DPIR比经过非盲去噪的DPIR得到的PSNR值要低得多
  • 非盲降噪比盲降噪更适合即插即用IR

?5.2 单图像超分辨率(SISR)

现有的SISR方法主要针对双三次退化模型:

?但是这样的话,如果真实的退化模型偏离了假设的模型,这种方法将会严重退化。

为了弥补这一点,另一种方法是采用经典但实用的退化模型:

考虑到了模糊、噪声。↓s表示标准的s-fold下采样器,即为每个不同的s×s patch选择左上角像素。

在本文中,我们考虑上述两个退化模型的SISR,对于(6a)的解,双三次退化可采用迭代反投影解:

?对(12)进一步修改,处理经典退化模型:

?其中↑s表示通过用0填充新条目来向上采样空间大小。特别值得注意的是,存在一种快速的封闭解来代替上述的迭代格式。假设卷积是在圆形边界条件下进行的,如去模糊中所述,closed-form solution为:

?

?其中\bigodot s为具有元素乘法的不同块处理算子,即对F(k)的s×s不同块进行元素乘法,?s为不同块下采样器,即对s×s不同块进行平均。

一般来说,封闭解(14)应该优于迭代解(13)。原因在于前者是包含一个参数(即αk)的精确解,而后者是包含两个参数(即每外部迭代的内迭代次数和步长)的不精确解

整体参数设置,K为24,σK为max(σ, s)。对于(12)和(13)中的参数,γ固定为1.75,每次外部迭代所需的内部迭代次数设为5。z0初始化为LR图像的双三次插值。特别是,由于经典的退化模型为每个不同的s×s patch选择左上角像素,因此应该适当地解决移位问题。为了解决这个问题,我们使用2D线性网格插值来调整z0。

5.2.1 定量与定性比较

考虑了双三次退化模型和8种不同高斯模糊核的经典退化模型(如图10),这8个核由4个标准偏差不同的各向同性核(即0.7,1.2,1.6,2.0)和4个各向异性核组成,不考虑运动模糊核,因为已经指出高斯核对于SISR任务是足够的。考虑了(s = 2, σ = 0)、(s = 3, σ = 0)和(s = 3, σ = 7.65)三种不同的尺度因子和噪声水平组合。

?RCAN是最先进的基于双三次退化的深度模型,由约400层组成。

SRFBN是一种具有反馈机制的递归神经网络。

MZSR是一种zero-shot method based on meta-transfer learning,该方法首先学习初始网络,然后在一对给定的LR图像上对模型进行微调,并通过少量梯度更新对其重新退化的LR图像进行微调。由于MZSR需要向下采样LR图像进行微调,为了获取足够的信息,比例因子不应该太大。因此,MZSR主要针对尺度因子2设计。

与IRCNN和DPIR类似,MZSR是一种非盲方法。

  • RCAN和SRFBN在σ = 0的双三次退化上取得了良好的结果,但当真实退化偏离假设的退化时就失去了效果。SAN具有与RCAN和SRFBN相似的性能,因为它们经过了双三次退化的训练
  • 利用精确的经典退化模型,MZSR在大多数模糊核上的性能优于RCAN
  • IRCNN在平滑模糊核上比MZSR有明显的PSNR增益。原因是MZSR严重依赖于LR图像的内部学习
  • IRCNN在噪声水平σ = 0的双三次核和第一个各向同性高斯核上表现较好。这表明IBP解具有非常有限的通用性。IRCNN+的PSNR要比IRCNN高得多,这也证明了封闭解相对于IBP解的优势。
  • DPIR可以通过使用更强大的去噪器来进一步改进IRCNN+?

视觉对比

  • MZSR和IRCNN比双三次插值法具有更好的视觉效果。
  • 由于不准确的数据项解决方案,IRCNN无法恢复锐利的边缘。相比之下,通过使用封闭形式的数据项解决方案,IRCNN+可以产生更好的结果,具有锐利的边缘。但它缺乏恢复干净的HR的能力。相比之下,DPIR具有较强的去噪先验,在锐度和自然度方面都能产生最佳的视觉效果。

5.2.2 中间结果与收敛性

图12(a)-(e)提供了在图11的测试图像上DPIR的不同迭代的xk和zk的视觉结果和PSNR结果。

  • 尽管LR图像不包含任何噪声,但封闭形式的解决方案(x1)会引入严重的结构化噪声。然而,它比RCAN具有更好的峰值信噪比。
  • 在通过DRUNet去噪器后,如z1所示,这种结构化噪声被去除。同时,微小的纹理和结构被平滑,边缘变得模糊。但峰值信噪比显著提高,与MZSR相当。
  • 随着迭代次数的增加,x6比x1包含更少的结构化噪声,而z6比z1恢复更多细节和更锐利的边缘。

相应的峰值信噪比收敛曲线如图12(f)所示,可以看出xk和zk快速收敛到固定点。

讨论

然即插即用IR去噪器的先验训练用于高斯去噪,但这并不意味着GT具有高斯分布。事实上,噪声分布在不同的IR任务甚至不同的迭代中都有所不同。

去噪先验主要是去除噪声和一些细节,而后续的数据子问题则起到了缓解噪声无关性退化和恢复丢失细节的作用。这是以失去效率和专业化为代价的,因为这样的通用高斯去噪器的优先级和超参数的手动选择。

相比之下,通过联合学习特定于任务的去噪先验和超参数,deep unfolding IR可以训练出性能更好的紧凑推理。以SISR为例,deep unfolding去噪器可以恢复高频细节,而不是通过深度即插即用去噪器来平滑细节。

?总结

(1)通过利用半二次分割算法,对三种不同的图像恢复任务进行迭代优化,包括去模糊、超分辨率和彩色图像去噪,由交替求解具有闭式解的数据子问题和可由深度去噪器代替的先验子问题组成。

(2)对参数设置、中间结果和经验收敛性进行了广泛的实验和分析。结果表明,即插即用图像恢复与强大的深度去噪先验有几个优点。

  • 由于深度去噪器的隐式但强大的先验建模,它提高了基于模型的方法的有效性
  • 在没有特定任务培训的情况下,它比基于学习的方法更灵活,同时具有可比性
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-30 12:33:56  更:2021-10-30 12:35:53 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 6:20:53-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码