| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 深度神经网络中的卷积 -> 正文阅读 |
|
[人工智能]深度神经网络中的卷积 |
卷积单元本文给出了四维张量卷积的表达式,卷积输出大小的表达式,以及Matlab和PyTorch下卷积实例。 经典卷积运算经典二维卷积设有 N i N_i Ni? 个二维卷积输入 I ∈ R N i × C i × H i × W i {\bm I} \in {\mathbb R}^{N_i × C_i \times H_i \times W_i} I∈RNi?×Ci?×Hi?×Wi?, C k × C i C_k \times C_i Ck?×Ci? 个二维卷积核 K ∈ R C k × C i × H k × W k {\bm K} \in {\mathbb R}^{C_k \times C_i \times H_k \times W_k} K∈RCk?×Ci?×Hk?×Wk?, N o N_o No? 个卷积输出记为 O ∈ R N o × C o × H o × W o {\bm O} \in {\mathbb R}^{N_o × C_o \times H_o \times W_o} O∈RNo?×Co?×Ho?×Wo?, 在经典卷积神经网络中, 有 C k = C o , N o = N i C_k = C_o, N_o = N_i Ck?=Co?,No?=Ni?, K {\bm K} K 与 I \bm I I 间的二维卷积运算可以表示为
O
n
o
,
c
o
,
:
,
:
=
∑
c
i
=
0
C
i
?
1
I
n
o
,
c
i
,
:
,
:
?
K
c
o
,
c
i
,
:
,
:
=
∑
c
i
=
0
C
i
?
1
Z
n
o
,
c
o
,
c
i
,
:
,
:
\begin{aligned} {\bm O}_{n_o, c_o, :, :} &= \sum_{c_i=0}^{C_i-1} {\bm I}_{n_o, c_i, :,:} * {\bm K}_{c_o, c_i, :,:} \\ &= \sum_{c_i=0}^{C_i-1}{\bm Z}_{n_o, c_o, c_i, :, :} \end{aligned}
Ono?,co?,:,:??=ci?=0∑Ci??1?Ino?,ci?,:,:??Kco?,ci?,:,:?=ci?=0∑Ci??1?Zno?,co?,ci?,:,:?? Z n o , c o , c i , h o , w o = ∑ h = 0 H k ? 1 ∑ w = 0 W k ? 1 I n o , c i , h o + h ? 1 , w o + w ? 1 ? K c o , c i , h , w . {\bm Z}_{n_o, c_o, c_i, h_o, w_o} = \sum_{h=0}^{H_k-1}\sum_{w=0}^{W_k-1} {\bm I}_{n_o, c_i, h_o + h - 1, w_o + w - 1} \cdot {\bm K}_{c_o, c_i, h, w}. Zno?,co?,ci?,ho?,wo??=h=0∑Hk??1?w=0∑Wk??1?Ino?,ci?,ho?+h?1,wo?+w?1??Kco?,ci?,h,w?. 记卷积过程中, 高度与宽度维上填补(padding)大小为 H p × W p H_p \times W_p Hp?×Wp?, 卷积步长为 H s × W s H_s \times W_s Hs?×Ws?, 则卷积输出大小满足 H o = ? H i + 2 × H p ? H k H s + 1 ? W o = ? W i + 2 × W p ? W k W s + 1 ? \begin{array}{ll} H_{o} &= \left\lfloor\frac{H_{i} + 2 \times H_p - H_k}{H_s} + 1\right\rfloor \\ W_{o} &= \left\lfloor\frac{W_{i} + 2 \times W_p - W_k}{W_s} + 1\right\rfloor \end{array} Ho?Wo??=?Hs?Hi?+2×Hp??Hk??+1?=?Ws?Wi?+2×Wp??Wk??+1?? 卷积神经网络中的卷积操作, 实际上是相关操作, 因为在运算过程中, 未对卷积核进行翻转操作 下图所示为二维卷积操作示意图. 经典膨胀二维卷积运算设有 N i N_i Ni? 个二维卷积输入 I ∈ R N i × C i × H i × W i {\bm I} \in {\mathbb R}^{N_i × C_i \times H_i \times W_i} I∈RNi?×Ci?×Hi?×Wi?, C k × C i C_k \times C_i Ck?×Ci? 个二维卷积核 K ∈ R C k × C i × H k × W k {\bm K} \in {\mathbb R}^{C_k \times C_i \times H_k \times W_k} K∈RCk?×Ci?×Hk?×Wk?, 高度与宽度维上填补(padding)大小为 H p × W p H_p×W_p Hp?×Wp?, 膨胀(dilation)大小为 H d × W d H_d×W_d Hd?×Wd?, 卷积步长为 H s × W s H_s×W_s Hs?×Ws?, 在经典膨胀二维卷积神经网络中, 有 C k = C o , N o = N i C_k = C_o, N_o = N_i Ck?=Co?,No?=Ni?, 则卷积后的输出为 O ∈ R N o × C o × H o × W o {\bm O} \in {\mathbb R}^{N_o × C_{o}\times H_{o} \times W_{o}} O∈RNo?×Co?×Ho?×Wo?, 其中 H o = ? H i + 2 × H p ? H d × ( H k ? 1 ) ? 1 H s + 1 ? W o = ? W i + 2 × W p ? W d × ( W k ? 1 ) ? 1 W s + 1 ? \begin{array}{ll} H_{o} &= \left\lfloor\frac{H_{i} + 2 \times H_p - H_d \times (H_k - 1) - 1}{H_s} + 1\right\rfloor \\ W_{o} &= \left\lfloor\frac{W_{i} + 2 \times W_p - W_d \times (W_k - 1) - 1}{W_s} + 1\right\rfloor \end{array} Ho?Wo??=?Hs?Hi?+2×Hp??Hd?×(Hk??1)?1?+1?=?Ws?Wi?+2×Wp??Wd?×(Wk??1)?1?+1?? 可以发现当膨胀大小为 H d × W d = 1 × 1 H_d×W_d = 1×1 Hd?×Wd?=1×1 时, 膨胀卷积退化为经典卷积. 更多二维卷积示意图参见 A technical report on convolution arithmetic in the context of deep learning. 经典二维转置卷积运算二维转置卷积是一种解卷积方法, 设有二维卷积核 K ∈ R C o × H k × W k {\bm K} \in {\mathbb R}^{C_o\times H_k \times W_k} K∈RCo?×Hk?×Wk?, 二维卷积输入 I ∈ R N i × C i × H i × W i {\bm I} \in {\mathbb R}^{N_i × C_{i}\times H_{i} \times W_{i}} I∈RNi?×Ci?×Hi?×Wi?, 高度与宽度维上填补(padding)大小为 H p × W p H_p×W_p Hp?×Wp?, 膨胀(dilation)大小为 H d × W d H_d×W_d Hd?×Wd?, 卷积步长为 H s × W s H_s×W_s Hs?×Ws?, 则卷积后填补(output-padding)大小为 H o p × W o p H_{op}×W_{op} Hop?×Wop?, 则卷积后的输出为 Y ∈ R N × C o × H o × W o {\bm Y} \in {\mathbb R}^{N × C_{o}\times H_{o} \times W_{o}} Y∈RN×Co?×Ho?×Wo?, 其中 H o = ( H i ? 1 ) × H s ? 2 × H p + H d × ( H k ? 1 ) + H o p + 1 W o = ( W i ? 1 ) × W s ? 2 × W p + W d × ( W k ? 1 ) + W o p + 1 \begin{array}{ll} H_{o} &= (H_{i} - 1) \times H_s - 2 \times H_p + H_d \times (H_k - 1) + H_{op} + 1 \\ W_{o} &= (W_{i} - 1) \times W_s - 2 \times W_p + W_d \times (W_k - 1) + W_{op} + 1 \end{array} Ho?Wo??=(Hi??1)×Hs??2×Hp?+Hd?×(Hk??1)+Hop?+1=(Wi??1)×Ws??2×Wp?+Wd?×(Wk??1)+Wop?+1? 实验分析实验说明以二维卷积为例, 设有矩阵 a , b {\bm a}, {\bm b} a,b a = [ 1 2 3 4 5 6 7 8 9 ] {\bm a} = \left[ {\begin{array}{ccc} 1&2&3\\ 4&5&6\\ 7&8&9 \end{array}} \right] a=???147?258?369???? b = [ 1 2 3 4 ] {\bm b} = \left[ {\begin{array}{ccc} 1&2\\ 3&4 \end{array}} \right] b=[13?24?] 则有卷积 a ? b {\bm a}*{\bm b} a?b a ? b = [ 1 4 7 6 7 23 33 24 19 53 63 42 21 52 59 36 ] {\bm a}*{\bm b} = \left[ {\begin{array}{cccc} 1&4&7&6\\ 7&{23}&{33}&{24}\\ {19}&{53}&{63}&{42}\\ {21}&{52}&{59}&{36} \end{array}} \right] a?b=?????171921?4235352?7336359?6244236?????? 互相关 a ? b {\bm a}\star{\bm b} a?b a ? b = [ 4 11 18 9 18 37 47 21 36 67 77 33 14 23 26 9 ] {\bm a}\star{\bm b} = \left[ {\begin{array}{cccc} 4&{11}&{18}&9\\ {18}&{37}&{47}&{21}\\ {36}&{67}&{77}&{33}\\ {14}&{23}&{26}&9 \end{array}} \right] a?b=?????4183614?11376723?18477726?921339?????? 实验结果在 Matlab 环境中, 输入如下代码, 求解卷积 a ? b {\bm a} * {\bm b} a?b 与相关 a ? b {\bm a}\star{\bm b} a?b
MATLAB中的2D卷积和相关结果为
在 Python 环境中, 输入如下代码, 求解卷积 a ? b {\bm a} * {\bm b} a?b
PyTorch中的2D卷积结果为
对比结果可以发现, PyTorch中的2D卷积实际上是2D相关操作, 与此类似, Tensorflow等深度神经网络框架中的卷积均为相关操作. 但这并不影响网络的性能, 这是因为卷积核是通过网络学习的, 通过学习得到的卷积核可以看作是翻转后卷积核. 参考文献 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 20:34:50- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |