IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Pytorch实战系列(一)——CNN之UNet代码解析 -> 正文阅读

[人工智能]Pytorch实战系列(一)——CNN之UNet代码解析

目录

1.UNet整体结构理解

1.1 UNet结构拆解

1.1.1 卷积层主体:两次卷积操作

1.1.2 左部分每一层:下采样+卷积层

1.1.3 右部分每一层:上采样+中部分跳跃连接+卷积层

1.1.4 输入层和输出层

1.2 UNet结构融合

2.UNet Pytorch代码理解

2.1 UNet基本组件编码

2.1.1 卷积层编码

2.1.2 左部分层编码(下采样+卷积层)

2.1.3 右部分层编码(上采样+跳跃连接+卷积层)

2.1.4 输出层编码(输出结果采用1*1卷积)

2.2 UNet整体网络编码


1.UNet整体结构理解

????????关于UNet的介绍网上有很多,它在语义分割上的传奇地位是任何深度学习初学者在接触CNN时都一定会知晓的。因而在此就不再赘述一些网络特点优势等等等等,我们直接来理解网络的组成和结构就好了。

? ? ? ? 先放上UNet用得烂了但也被称作“存在一大批魔改”的结构图:

? ? ? ? 在这里,我们可以把UNet拆解成三个部分进行理解:左、右、中三部分。

  • 左:特征提取模块,主要操作是进行下采样(池化)
  • 右:特征融合模块,主要操作是进行上采样
  • 中:跳跃连接模块,主要操作是将左右相同层两个模块的特征连接起来

? ? ? ? 上述就是整个UNet结构的主要理解,理解完成之后,我们将各个模块进行编码上的拆解,之后再融合起来,组成整个UNet的结构。

1.1 UNet结构拆解

1.1.1 卷积层主体:两次卷积操作

? ? ? ? 单看每一个卷积层,实际上就是每一个卷积层内做两次卷积操作,两次的卷积操作都是做kernel_size=3,stride=1的3*3卷积,结构图所示的网络没有做填补即padding=0,实际上我们为了保持图像尺寸大小不变通常会将padding设为1。

? ? ? ? 在卷积层内,卷积之后得到的特征图进行BatchNorm操作,再进入激活函数ReLU即可。所以这就是我们第一个需要编码的小模块。

1.1.2 左部分每一层:下采样+卷积层

? ? ? ? 这部分就比较简单了,除了最后一层之外,所有都需要进行下采样,所以结合1.1.1中的卷积层,每一层做一次kerner_size=2的下采样+卷积层(两次卷积操作)即可。

1.1.3 右部分每一层:上采样+中部分跳跃连接+卷积层

? ? ? ? 这里需要结合中部分和右部分的网络结构来看,对于右部分每一层最终得到的特征图而言,其应该是下一层上采样之后,结合左部分相同层特征图的跳跃连接,再经过卷积层(两次卷积操作)得到的。所以对应操作应该是先做一次scale_factor=2的上采样,并将之前相同层数得到的下采样结果做一个cat连接,再经过卷积层。

1.1.4 输入层和输出层

? ? ? ? 由于输入层无需下采样且输出层无需上采样,所以输入层和输出层都只需要经过一层卷积层(两次卷积操作)即可。

1.2 UNet结构融合

? ? ? ? 所以综合来看,整个UNet模型应该是:

输入层+左部分四层+右部分四层+输出层

输入层:一个卷积层

左部分四层:一次下采样+一个卷积层

右部分四层:一次上采样+一个卷积层

输出层:一个卷积层

? ? ? ? 左边输入层的in_channels是你所用图片的层数,右边输出层的out_channels是你所需要做分割的类别个数。其他的所有参数参照上面的UNet结构图即可。

2.UNet Pytorch代码理解

2.1 UNet基本组件编码

2.1.1 卷积层编码

class DoubleConv(nn.Module):
    """(convolution => [BN] => ReLU) * 2"""

    def __init__(self, in_channels, out_channels):
        super().__init__()
        self.double_conv = nn.Sequential(
            nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1),
            nn.BatchNorm2d(out_channels),
            nn.ReLU(inplace=True),
            nn.Conv2d(out_channels, out_channels, kernel_size=3, padding=1),
            nn.BatchNorm2d(out_channels),
            nn.ReLU(inplace=True)
        )

    def forward(self, x):
        return self.double_conv(x)

? ? ? ? 可以看到整个卷积层的主体部分就是(Conv2d->BatchNorm2d->ReLU),没什么好说的。

? ? ? ? 卷积层类命名为DoubleConv,意为做两次卷积。

2.1.2 左部分层编码(下采样+卷积层)

class Down(nn.Module):
    """Downscaling with maxpool then double conv"""

    def __init__(self, in_channels, out_channels):
        super().__init__()
        self.maxpool_conv = nn.Sequential(
            nn.MaxPool2d(2),
            DoubleConv(in_channels, out_channels)
        )

    def forward(self, x):
        return self.maxpool_conv(x)

? ? ? ? 基于2.1.1的卷积层,左部分层的编码也非常简单,直接就是(MaxPool2d->DoubleConv)。

? ? ? ? 左部分层类命名为Down,意为下采样,但下采样在编码的时候也做了两次卷积。

2.1.3 右部分层编码(上采样+跳跃连接+卷积层)

class Up(nn.Module):
    """Upscaling then double conv"""

    def __init__(self, in_channels, out_channels, bilinear=True):
        super().__init__()

        # if bilinear, use the normal convolutions to reduce the number of channels
        if bilinear:
            self.up = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True)
        else:
            self.up = nn.ConvTranspose2d(in_channels // 2, in_channels // 2, kernel_size=2, stride=2)# //为整数除法

        self.conv = DoubleConv(in_channels, out_channels)

    def forward(self, x1, x2):
        x1 = self.up(x1)
        # input is CHW
        diffY = torch.tensor([x2.size()[2] - x1.size()[2]])
        diffX = torch.tensor([x2.size()[3] - x1.size()[3]])

        x1 = F.pad(x1, [diffX // 2, diffX - diffX // 2,
                        diffY // 2, diffY - diffY // 2])

        x = torch.cat([x2, x1], dim=1)
        return self.conv(x)

? ? ? ? 这一层理解起来会稍微复杂一点,但总体结构是不变的,还是上采样+跳跃连接+卷积层

? ? ? ? 首先是bilinear的理解,从代码上可以看出来,用与不用bilinear会导致不同策略的上采样。使用bilinear会采用Upsample的上采样,其算法为插值上采样,不需要训练参数,速度比较快;不使用bilinear则会采用ConvTranspose2d的上采样,其算法是逆卷积化,需要训练参数,所以速度会比较慢,但上采样的数据会比较好。具体Upsample和ConvTranspose2d的参数可以查阅Pytorch官网或者网上的说明。

? ? ? ? 其次是卷积操作conv,直接调用DoubleConv即可,不再赘述。

? ? ? ? 最后看forward前向传播的操作里,可以看到在前向传播过程中,是先做了up操作,然后再做cat操作,最后return了conv即做了卷积操作。所以这也符合我们上面的说法。

? ? ? ? input是tensor即CHW,(channels,height,width),但是初看x1.size()[2]真的很奇怪,这不对吧。后来查了查,发现是(batchsize, channel, height, width),所以x2.size()[2]-x1.size()[2]是张量x2和张量x1的行差,x2.size()[3]-x1.size()[3]是张量x2和张量x1的列差。

? ? ? ? 查阅了一下函数,F.pad函数用于扩充,参数如下:

torch.nn.functional.pad(input, pad, mode='constant', value=0)

? ? ? ? 具体的扩充法则比较复杂,input就是需要扩充的tensor张量,pad是扩充参数(形状大小),mode是扩充模式,value是扩充值。

? ? ? ? 详细的扩充法则可以查阅PyTorch碎片:F.pad的图文透彻理解_柚有所思的博客-CSDN博客

? ? ? ? 于是diffY和diffX分别是同层左部分特征图与右部分上采样后特征图的列差与行差,F.pad函数则是在右部分上采样后的特征图上补足与同层左部分特征图的行列,使之左右部分特征图有相同的尺寸

? ? ? ? 最后再采用torch.cat函数将同层左部分特征图与右部分上采样后特征图在dim=1即行维度上进行拼接,这就完成了跳跃连接。

2.1.4 输出层编码(输出结果采用1*1卷积)

class OutConv(nn.Module):
    def __init__(self, in_channels, out_channels):
        super(OutConv, self).__init__()
        self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=1)

    def forward(self, x):
        return self.conv(x)

? ? ? ? 最后输出层则是需要直接进行一个卷积层(两次卷积)操作,其两次卷积均采用1*1的卷积核得到最终的输出结果(语义分割类别)。

2.2 UNet整体网络编码

? ? ? ? 完成2.1四个基本组件的编码后,即可得到以下UNet整体的网络编码:其通道数与其他参数如UNet的结构图所示,其前向传播forward的组成结构严格按照1.2的顺序

class UNet(nn.Module):
    def __init__(self, n_channels, n_classes, bilinear=True):
        super(UNet, self).__init__()
        self.n_channels = n_channels # 输入通道数
        self.n_classes = n_classes # 输出类别数
        self.bilinear = bilinear # 上采样方式

        self.inc = DoubleConv(n_channels, 64) # 输入层
        self.down1 = Down(64, 128)
        self.down2 = Down(128, 256)
        self.down3 = Down(256, 512)
        self.down4 = Down(512, 512)
        self.up1 = Up(1024, 256, bilinear)
        self.up2 = Up(512, 128, bilinear)
        self.up3 = Up(256, 64, bilinear)
        self.up4 = Up(128, 64, bilinear)
        self.outc = OutConv(64, n_classes) # 输出层

    def forward(self, x):
        x1 = self.inc(x) # 一开始输入
        x2 = self.down1(x1) # 四层左部分
        x3 = self.down2(x2)
        x4 = self.down3(x3)
        x5 = self.down4(x4)
        x = self.up1(x5, x4) # 四层右部分
        x = self.up2(x, x3)
        x = self.up3(x, x2)
        x = self.up4(x, x1)
        logits = self.outc(x) # 最终输出
        return logits

我的GitHub主页:JeasunLok · GitHub?

具体训练测试代码在:GitHub - JeasunLok/1_UNet-Pytorch-for-DL-course: The first CNN-Net for segmentations UNet in DL course

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-17 12:33:42  更:2022-10-17 12:36:37 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年12日历 -2024/12/28 2:36:54-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码
数据统计