1x1卷积的原理与应用
(163条消息) 1x1卷积的作用_salary_up_27k的博客-CSDN博客_1x1卷积
深度笔记|1x1卷积核的作用 - 知乎
1.有的时候,我们想在不增加感受野的情况下,让网络加深,为的就是引入更多的非线性。
2.升维或者降维,卷积后的的 featuremap 通道数是与卷积核的个数相同的,为什么要用 1x1 呢,在训练的时候,卷积核里面的值就是要训练的权重,3x3 的尺寸是 1x1 所需要内存的 9 倍,其它的类似。所以,有时根据实际情况只想单纯的去提升或者降低 feature map 的通道,1x1 无疑是一个值得考虑的选项。
3.减少计算量,降维其实就能体现参数量的降低了,还有就是在inception module 里面的体现
扩张(dilated/Atrous)卷积的原理与应用//Atrous是法文来着
(38 封私信 / 36 条消息) 如何理解空洞卷积(dilated convolution)? - 知乎 (zhihu.com)
空洞(扩张)卷积(Dilated/Atrous Convolution) - 知乎 (zhihu.com)
1.dilated的好处是不做pooling损失信息的情况下,加大了感受野,让每个卷积输出都包含较大范围的信息,可以在相同感受野大小的前提下,空洞卷积比普通卷积的参数量更少。
2.对时间的建模长度受限于卷积核大小的,如果要想抓去更长的依赖关系,就需要线性的堆叠很多的层。为了解决这个问题,研究人员提出了膨胀卷积。
因果?(causal)卷积的原理与应用
(165条消息) 时序模型(一)—— TCN 时间卷积网络_微知girl的博客-CSDN博客_时间卷积网络 //2.1因果卷积 (165条消息) TCN-时间卷积网络_满腹的小不甘_静静的博客-CSDN博客_时间卷积网络
1.?即对于上一层t时刻的值,只依赖于下一层t时刻及其之前的值。和传统的卷积神经网络的不同之处在于,因果卷积不能看到未来的数据,它是单向的结构,不是双向的。也就是说只有有了前面的因才有后面的果,是一种严格的时间约束模型,因此被成为因果卷积,符合对时间序列建模的前提假设。
?
|