| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Pyramid Scene Parsing Network【PSPNet】论文阅读 -> 正文阅读 |
|
[人工智能]Pyramid Scene Parsing Network【PSPNet】论文阅读 |
论文:https://arxiv.org/pdf/1612.01105.pdf Abstract场景解析对于不受限制的开放词汇和多样的场景来说是一项挑战。在本文中,我们通过我们的金字塔池化模块和提出的金字塔场景解析网络(PSPNet),通过基于不同区域的上下文聚合来探索利用全局上下文信息的能力。我们的全局先验表示可以有效地在场景解析任务中产生高质量的结果,而PSPNet为像素级预测提供了一个优越的框架。所提出的方法在各种数据集上实现了最先进的性能。它在2016 ImageNet场景解析挑战赛、PASCAL VOC 2012基准测试和Cityscapes基准测试中名列第一。单台PSPNet可创造mIoU精度85的新纪录。PASCAL VOC 2012的4%,准确度80。城市景观2%。 1. Introduction基于语义分割的场景解析是计算机视觉中的一个基本课题。目标是为图像中的每个像素指定一个类别标签。场景解析提供了对场景的完整理解。它预测每个元素的标签、位置以及形状。这个主题对于自动驾驶、机器人传感等潜在应用具有广泛的兴趣。 场景解析的难度与场景和标签的多样性密切相关。先锋(pioneer)场景解析任务【23】是对LMO数据集上2688幅图像的33个场景进行分类【22】。最近的PASCAL VOC语义分割和PASCAL上下文数据集【8,29】包括更多具有类似上下文的标签,如椅子和沙发、马和牛等。新的ADE20K数据集【43】是最具挑战性的数据集,具有大量且不受限制的开放词汇表(unrestricted open vocabulary)和更多场景类别。图1中显示了一些代表性图像。为这些数据集开发有效的算法需要克服一些困难。 与这些方法不同,为了结合合适的全局特征,我们提出了金字塔场景解析网络pyramid scene parsing network(PSPNet)。除了用于像素预测的传统扩展FCN(3,40)外,我们还将像素级特征扩展到专门设计的全局金字塔池化特征。局部和全局线索一起使最终预测更加可靠。我们还提出了一种带有深度监督损失的优化策略。我们给出了所有的实现细节,这些细节是我们在本文中获得良好性能的关键,并使代码和经过训练的模型可以公开使用1。 我们的方法在所有可用数据集上都实现了最先进的性能。它是2016年ImageNet场景解析挑战赛的冠军【43】,在PASCAL VOC 2012语义分割基准(PASCAL VOC 2012 semantic segmentation benchmark)测试中排名第一【8】,在城市场景城市景观数据(on urban scene Cityscapes data)中排名第一【6】。他们表明,PSPNet为像素级预测任务提供了一个有希望的方向,这甚至可能有利于后续基于CNN的工作:立体匹配、光流、深度估计等。我们的主要贡献有三个方面:
2. Related Work下面,我们将回顾场景解析和语义分割任务==(scene parsing and semantic segmentation tasks)的最新进展。在强大的深度神经网络[17、33、34、13]的驱动下,场景解析和语义分割等像素级预测任务取得了巨大的进展,这是因为 将 分 类 中 的 全 连 接 层 替 换 为 卷 积 层 \color{red}{将分类中的全连接层替换为卷积层} 将分类中的全连接层替换为卷积层[26]。为了扩大神经网络的感受野,[3,40]的方法使用了扩张卷积(dilated convolution)。Noh等人[30]提出了一种从粗到细的结构,用 反 卷 积 网 络 ( d e c o n v o l u t i o n n e t w o r k ) \color{red}{反卷积网络(deconvolution network)} 反卷积网络(deconvolutionnetwork)来学习分割掩模。我们的基线网络是FCN和扩张网络[26,3](Our baseline network is FCN and dilated network)。 其他工作主要从两个方向进行。其中一个方向(26、3、5、39、11)是具有多尺度特征集合。由于在深层网络中, 更 高 层 的 特 征 包 含 更 多 的 语 义 和 更 少 的 位 置 信 息 \color{red}{更高层的特征包含更多的语义和更少的位置信息} 更高层的特征包含更多的语义和更少的位置信息。结合多尺度特征可以提高性能。 另一个方向是基于结构预测。先驱网络(pioneer work)[3]使用条件随机场(conditional random field)(CRF)做后处理来修正(refine)分割结果。以下方法【25、41、1】通过端到端建模优化网络。这两个方向都改善了场景解析中预测语义边界与对象匹配的定位能力。然而,在复杂场景中仍然有很大的空间可以利用必要的信息。 为了更好地利用全局图像级别的先验知识进行不同场景的理解,[18,27]的方法使用传统特征提取全局上下文信息,而不是从深层神经网络中提取。在目标检测框架下也有类似的提升【35】。Liu等人[24]证明了FCN的全局平均池化可以改善语义分割结果。然而,我们的实验表明,这些全局描述对于具有挑战性的ADE20K数据来说并不具有足够的代表性。因此,与[24]中的全局池化不同,我们通过我们的金字塔场景解析网络,通过基于不同区域的上下文聚合来探索利用全局上下文信息。 3. Pyramid Scene Parsing Network我们首先观察和分析了将FCN方法应用于场景解析时的典型故障案例。他们促使我们提出金字塔池化模块作为 一 个 有 效 的 全 局 上 下 文 先 验 \color{red}{一个有效的全局上下文先验} 一个有效的全局上下文先验。如图3所示的金字塔场景解析网络(PSPNet),可以提高复杂场景解析中开放词汇表对象和内容识别的性能(improve performance for open-vocabulary object and stuff identification in complex scene parsing)。 3.1 Important Observations新的ADE20K数据集【43】包含150个物品/对象类别标签(150 stuff/object category labels )(例如,墙、天空和树)和1038个图像级场景描述(例如,机场航站楼、卧室和街道)。因此,大量的标签和大量的场景分布便应运而生。通过检查[43]中提供的FCN基线的预测结果,我们总结了复杂场景解析的几个常见问题:
总结这些观察结果,许多错误部分的或完全的与不同感受野的contextual relationship 上 下 文 关 系 \color{red}{上下文关系} 上下文关系和contextual relationship 全 局 信 息 \color{red}{全局信息} 全局信息 有关。因此,具有合适全局场景级先验的深度网络可以大大提高场景解析的性能。 3.2 Pyramid Pooling Module通过以上分析,在接下来的内容中,我们介绍了金字塔池模块,经实证证明,它是一种有效的全局上下文先验。 在深层神经网络中, 感 受 野 的 大 小 可 以 大 致 表 明 我 们 使 用 上 下 文 信 息 的 多 少 程 度 \color{red}{感受野的大小可以大致表明我们使用上下文信息的多少程度} 感受野的大小可以大致表明我们使用上下文信息的多少程度。虽然从理论上讲,ResNet的感受野【13】已经大于输入图像,但Zhou等人【42】表明,CNN的经验感受野比理论上的感受野小得多,特别是在高水平层(high-level layers)。这使得许多网络没有充分整合重要的全局场景先验。我们通过提出有效的全局先验表征来解决这个问题。 全局平均池化作为全局上下文先验是一个很好的baseline模型,通常用于图像分类任务[34,13]。在[24]中,它成功地应用于语义分割。但对于ADE20K中的复杂场景图像【43】,这种策略不足以覆盖必要的信息。这些场景图像中的像素是关于许多物品和对象的注释。直接将它们融合成单个向量可能会丢失空间关系并导致歧义。在这方面,全局上下文信息和子区域上下文信息被认为是更有助于区分不同类别。一个更强大的表征(representation )可以是来自不同子区域的信息与这些感受野的融合。场景/图像分类的经典著作[18,12]也得出了类似的结论。 在[12]【 请注意,金字塔级别的数量和每个级别的大小是可以修改的。它们与输入金字塔池化层的特征图的大小有关。该结构通过采用不同大小的池化核以一些步长抽象出不同的子区域。因此,多阶段核应该在表征上保持一个合理的缺口。我们的金字塔池模块是一个4层级模块,bin大小分别为1×1、2×2、3×3和6×6。对于max和average之间的池化操作类型,我们在第5.2节中进行了大量的实验来显示差异。 3.3 Network Architecture使用金字塔池化模块,我们提出了金字塔场景解析网络(PSPNet),如图3所示。给定图3(a)中的输入图像,我们使用预训练的ResNet[13]模型和扩展网络策略( 为了解释我们的结构,PSPNet为像素级场景解析提供了有效的全局上下文先验。金字塔池化模块可以收集不同级别level的信息,比全局池化更具代表性[24]。在计算成本方面,我们的PSPNet与最初的扩展的FCN网络( 4. Deep Supervision for ResNet-Based FCN深度预训练的网络会带来好的性能【17、33、13】。然而,如[32,19]所示,网络深度的增加可能会带来额外的图像分类优化困难。ResNet通过在每个块中使用跳过连接( 相反,我们建议通过附加损失的监督生成初始结果,然后使用最终损失学习残差剩余结果。因此,深层网络的优化被分解为两个部分,每一个部分都更简单的去求解。
图
4
\color{red}{图4}
图4显示了我们的深度监督ResNet101[13]模型的一个示例。除了使用softmax loss训练最终分类器的主分支外,在第四阶段之后还应用了另一个分类器,即res4b22残差块。与中继反向传播(relay backpropagation)[32]将反向辅助损失阻断到几个浅层不同,我们让这两个损失函数通过之前的所有层。辅助损失帮助优化学习过程,而主分支( 在测试阶段,我们放弃了这个辅助分支,只使用经过好的优化的主分支进行最终预测。这种基于ResNet的FCN的深度监督训练策略在不同的实验环境下具有广泛的实用性,并且适用于预训练的ResNet模型。这体现了这种学习策略的普遍性。更多详情见第5.2节。 5. Experiments我们提出的方法在场景解析和语义分割挑战方面是成功的。我们在本节中对三个不同的数据集进行了评估,包括ImageNet场景解析挑战2016【43】、PASCAL VOC 2012语义分割【8】和城市场景理解数据集Cityscapes【6】。 5.1 Implementation Details对于一个实用的深度学习系统,魔鬼总是出现在细节中。我们的实现基于公共平台Caffe【15】。受[4]的启发,我们使用“多边形”( 电源。我们将基本学习率设置为0.01,电源( 在实验过程中,我们注意到适当大的“cropsize”可以产生良好的性能,而批处理规范化层中的“batchsize”非常重要。由于GPU卡上的物理内存有限,我们在培训期间将“batchsize”设置为16。为了实现这一点,我们从[37]中的Caffe与分支[4]进行修订,并使其支持基于OpenMPI对从多个GPU收集的数据进行批量规范化。对于辅助损失,在实验中我们将权重设置为0.4。 5.2 ImageNet Scene Parsing Challenge 2016
与基准相比,我们提出的结构有了进一步的提升。使用数据扩充,我们的结果比基准超出了1.54/0.72,达到了35.82/77.07。使用辅助损失可以进一步提高1.41/0.94,达到37.23/78.01。使用PSPNet,我们注意到提升相对更为显著,提升了4.45/2.03。结果达到了41.68/80.84。与基准结果的差值在绝对提升方面为7.40/3.69,相对提升21.59/4.83(%)。更深层的ResNet269网络能够产生更高的性能,最高可达43.81/80.88。最后,多尺度测试方案将分数移动到了44.94/81.69。
5.3 PASCAL VOC 2012我们的PSPNet在语义分割方面也有令人满意的效果。我们在PASCAL VOC 2012分割数据集[8]上进行了实验,该数据集包含20个对象类别和一个背景类。按照[26,7,31,3]的步骤,我们使用带有[10]注释的增强数据( MS-COCO预训练的方法标有“?”。为了在场景解析/语义分割任务中与当前基于ResNet的框架[38、9、4]进行公平比较,我们在ResNet101的基础上构建了我们的体系结构,而没有像CRF那样后处理。我们使用几个尺度输入评估PSPNet,并跟着【3,24】使用以下平均结果。 如
表
6
\color{red}{表6}
表6所示,PSPNet在这两种设置上都优于以前的方法。仅使用VOC 2012数据进行训练,我们达到82.6%的准确率——我们在所有20个类别中都获得了最高的准确率( 有人可能会争论,自从提出ResNet以来,基于我们的分类模型比以前的几种方法更强大。为了展示我们的独特贡献,我们表明,我们的方法也优于使用相同模型的最先进框架(
图
7
\color{red}{图7}
图7中示出了几个示例。对于第一行中的“cows”,我们的基准模型将其视为“horse”和“dog”,而PSPNet会更正这些错误。对于第二行和第三行中的“aeroplane”和“table”,PSPNet会找到缺失的部分。对于下面行中的“person”、“bottle”和“plant”,与基准模型相比,PSPNet在图像中的这些小尺寸对象类上表现良好。 5.4 CityscapesCityscapes【6】是最近发布的用于语义城市场景理解的数据集。它包含从不同季节的50个城市收集的5000幅高质量像素级精细标注图像。图像分为2975、500和1525组用于训练、验证和测试。它定义了19个类别,每个类别都包含了内容和对象(
表
7
\color{red}{表7}
表7中的统计数据表明,PSPNet优于其他方法,具有显著的优势。同时使用精细和粗糙数据进行训练,使我们的方法得到80.2准确率。
图
8
\color{red}{图8}
图8中示出了几个示例。 6. Concluding Remarks(结束语)我们提出了一种有效的金字塔场景解析网络,用于复杂场景的理解。全局金字塔池化特征提供了额外的上下文信息( Acknowledgements(致谢)我们要感谢孙刚和童晓在培训基本分类模型方面的帮助,感谢罗群的技术支持。这项工作得到香港特别行政区研究资助局的资助(项目编号2150760)。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 2:43:40- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |