填充和步幅
由之前的学习,可以知道,假设输入形状为
X
h
×
X
w
X_h \times X_w
Xh?×Xw? ,卷积核形状为
K
h
×
K
w
K_h \times K_w
Kh?×Kw? ,那么输出形状将是
(
X
h
?
K
h
+
1
)
×
(
X
w
?
K
w
+
1
)
(X_h - K_h + 1) \times (X_w - K_w + 1)
(Xh??Kh?+1)×(Xw??Kw?+1) 。因此,卷积的输出形状取决于输入形状和卷积核的形状。
还有什么因素会影响输出的大小呢?本节我们将介绍 填充(padding) 和 步幅(stride)。
填充(Padding)
在应用多层卷积时,我们常常丢失边缘像素。 由于我们通常使用小卷积核,因此对于任何单个卷积,我们可能只会丢失几个像素。 但随着我们应用许多连续卷积层,累积丢失的像素数就多了。
解决这个问题的简单方法即为填充(padding):在输入图像的边界填充元素(通常填充元素是
0
0
0 )。
例如,在下图中,我们将
3
×
3
3 \times 3
3×3 输入填充到
5
×
5
5 \times 5
5×5 ,那么它的输出就增加为
4
×
4
4 \times 4
4×4 。阴影部分是第一个输出元素以及用于输出计算的输入和核张量元素:
0
×
0
+
0
×
1
+
0
×
2
+
0
×
3
=
0
0 \times 0 + 0 \times 1 + 0 \times 2 + 0 \times 3 = 0
0×0+0×1+0×2+0×3=0
通常,如果我们添加
p
h
p_h
ph? 行填充(大约一半在顶部,一半在底部)和列
p
w
p_w
pw? 填充(左侧大约一半,右侧一半),则输出形状将为
(
n
h
?
k
h
+
p
h
+
1
)
×
(
n
w
?
k
w
+
p
w
+
1
)
(n_h - k_h + p_h +1) \times (n_w - k_w + p_w +1)
(nh??kh?+ph?+1)×(nw??kw?+pw?+1)
这意味着输出的高度和宽度将分别增加
p
h
p_h
ph? 和
p
w
p_w
pw? 。
在许多情况下,我们需要设置
p
h
=
k
h
?
1
p_h = k_h - 1
ph?=kh??1 和
p
w
=
k
w
?
1
p_w = k_w - 1
pw?=kw??1 ,使输入和输出具有相同的高度和宽度。
此外,使用奇数的核大小和填充大小也提供了书写上的便利。对于任何二维张量X,当满足: 1. 卷积核的大小是奇数; 2. 所有边的填充行数和列数相同; 3. 输出与输入具有相同高度和宽度 则可以得出:输出
Y
[
i
,
j
]
Y[i, j]
Y[i,j] 是通过以输入
X
[
i
,
j
]
X[i, j]
X[i,j] 为中心,与卷积核进行互相关计算得到的。
比如,在下面的例子中,我们创建一个高度和宽度为 3 的二维卷积层,并在所有侧边填充 1 个像素。给定高度和宽度为 8 的输入,则输出的高度和宽度也是 8 。
import torch
from torch import nn
def comp_conv2d(conv2d, X):
X = X.reshape((1, 1) + X.shape)
Y = conv2d(X)
return Y.reshape(Y.shape[2:])
conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1)
X = torch.rand(size=(8,8))
comp_conv2d(conv2d, X).shape
torch.Size([8, 8])
当卷积核的高度和宽度不同时,我们可以填充不同的高度和宽度,使输出和输入具有相同的高度和宽度。在如下示例中,我们使用高度为5,宽度为3的卷积核,高度和宽度两边的填充分别为2和1。
conv2d = nn.Conv2d(1, 1, kernel_size=(5, 3), padding=(2, 1))
comp_conv2d(conv2d, X).shape
torch.Size([8, 8])
步幅(Stride)
在计算互相关时,卷积窗口从输入张量的左上角开始,向下、向右滑动。 在前面的例子中,我们默认每次滑动一个元素。 但是,有时候为了高效计算或是缩减采样次数,卷积窗口可以跳过中间位置,每次滑动多个元素。
我们将每次滑动元素的数量称为 步幅(stride) 。
下图是垂直步幅为
3
3
3 ,水平步幅为
2
2
2 的二维互相关运算。 着色部分是输出元素以及用于输出计算的输入和内核张量元素:
0
×
0
+
0
×
1
+
1
×
2
+
2
×
3
=
8
0
×
0
+
6
×
1
+
0
×
2
+
0
×
3
=
6
0 \times 0 + 0 \times 1 + 1 \times 2 + 2 \times 3 = 8 \\ 0 \times 0 + 6 \times 1 + 0 \times 2 + 0 \times 3 = 6
0×0+0×1+1×2+2×3=80×0+6×1+0×2+0×3=6
通常,当垂直步幅为
s
h
s_h
sh? 、水平步幅为
s
w
s_w
sw? 时,输出形状为
?
(
n
h
?
k
h
+
p
h
+
s
h
)
/
s
h
?
×
?
(
n
w
?
k
w
+
p
w
+
s
w
)
/
s
w
?
\lfloor (n_h - k_h + p_h + s_h)/s_h \rfloor \times \lfloor (n_w - k_w + p_w + s_w)/s_w \rfloor
?(nh??kh?+ph?+sh?)/sh??×?(nw??kw?+pw?+sw?)/sw??
如果我们设置了
p
h
=
k
h
?
1
p_h = k_h - 1
ph?=kh??1 和
p
w
=
k
w
?
1
p_w = k_w - 1
pw?=kw??1,则输出形状将简化为
?
(
n
h
+
s
h
?
1
)
/
s
h
?
×
?
(
n
w
+
s
w
?
1
)
/
s
w
?
\lfloor (n_h + s_h - 1)/s_h \rfloor \times \lfloor (n_w + s_w - 1)/s_w \rfloor
?(nh?+sh??1)/sh??×?(nw?+sw??1)/sw??
更进一步,如果输入的高度和宽度可以被垂直和水平步幅整除,则输出形状将为
(
n
h
/
s
h
)
×
(
n
w
/
s
w
)
(n_h/s_h) \times (n_w/s_w)
(nh?/sh?)×(nw?/sw?)
下面,我们将高度和宽度的步幅设置为2,从而将输入的高度和宽度减半。
conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1, stride=2)
comp_conv2d(conv2d, X).shape
torch.Size([4, 4])
接下来,看一个稍微复杂的例子。
conv2d = nn.Conv2d(1, 1, kernel_size=(3, 5), padding=(0, 1), stride=(3, 4))
comp_conv2d(conv2d, X).shape
torch.Size([2, 2])
在实践中,我们很少使用不一致的步幅或填充,也就是说,我们通常有
p
h
=
p
w
p_h = p_w
ph?=pw? 和
s
h
=
s
w
s_h = s_w
sh?=sw? 。
小结
-
填充可以增加输出的高度和宽度。这常用来使输出与输入具有相同的高和宽。 -
步幅可以减小输出的高和宽,例如输出的高和宽仅为输入的高和宽的
1
/
n
1/n
1/n(
n
n
n 是一个大于的整数)。 -
填充和步幅可用于有效地调整数据的维度。
|