针对经典语义分割网络在高分辨率遥感图像语义分割中存在的边缘目标分割不准确、不同类型目标分割不一致、预测效率慢等问题,本文提出了一种融合改进的Deeplabv3+网络CFAMNet的分类特征注意机制,用于遥感图像中常见特征的语义分割。首先,利用类特征注意模块增强类间的相关性,更好地提取和处理不同类别的语义信息;其次,利用多并行无网格空间金字塔池化结构增强空间间的相关性,更好地提取图像不同尺度的上下文信息;最后,利用编码器-解码器结构对分割结果进行细化。在公共数据集高奋图像数据集(GID)上进行了实验,验证了所提网络的分割效果。实验结果表明,CFAMNet在GID上的平均相交度(MIOU)和总体正确率(OA)分别达到77.22%和85.01%,超过了目前主流的语义分割网络。
1. Introduction
近年来,随着遥感技术的不断发展,越来越多的高分辨率遥感卫星被使用,遥感图像的分辨率也在不断提高(Lu et al., 2020;Phiri和Morgenroth, 2017)。复杂、高分辨率遥感图像的自动解译已成为一个迫切需要解决的问题(Guo et al., 2018;马等,2019)。语义分割(SS)是遥感影像解译的关键技术之一,已广泛应用于土地覆被测绘、变化检测、城市规划和环境监测等诸多领域(Matikainen和Karila, 2011)。语义分割是理解图像的像素级别,即对图像中的每个像素进行分类,并将图像分割成几个感兴趣的目标,而对每个目标分配特定的标签类型(Garcia-Garcia et al., 2017)。高分辨率遥感影像可以提供丰富的地物信息,并能很好地呈现地物的空间结构和纹理特征(Erus and Lom′enie, 2010)。它们丰富的上下文信息为语义分割提供了数据支持。然而,高分辨率遥感图像信息复杂多样、特征丰富、尺度
|