| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> PP-LCNet: A Lightweight CPU Convolutional Neural Network -> 正文阅读 |
|
[人工智能]PP-LCNet: A Lightweight CPU Convolutional Neural Network |
轻量级Trick的优化组合。
摘要
介绍目前的轻量级网络在启用MKLDNN的Intel CPU上速度并不理想,考虑了一下三个基本问题:
MethodPP-LCNet使用深度可分离卷积作为基础结构,构建了一个类似MobileNetV1的BaseNet,并在其基础上结合现有的技术,从而得到了PP-LCNet 参数配置: Better activation function激活函数是神经网络中非线性的来源,因此其质量一定程度上决定着网络的表达能力。 当激活函数由Sigmoid变为ReLU时,网络的性能得到了很大的提升,近来出现了很多超越ReLU的激活函数,如EfficientNet的Swish,MobileNetV3中将其升级为HSwish,避免了大量的指数运算;因此本网络中使用HSwish激活函数代替ReLU。 首先让我们看一下ReLU函数的近似推导: 出于计算量的考虑和实验验证选择了ReLU ReLU6: 增加了上界 Swish:
β
\beta
β是个常数或可训练的参数。Swish 具备无上界有下界、平滑、非单调的特性。 导数: 当
β
=
0
β = 0
β=0时,Swish变为线性函数
f
(
x
)
=
x
2
f(x)=\frac x 2
f(x)=2x? HSwish: Swish函数的计算量是很大的,因此提出了HSwish,H表示Hard,意味着超过某个范围,激活值为常数 对ReLU6除以6再向左平移三个单位可以得到HSigmoid: HSwish的近似公式为 x ? h σ ( x ) = r e l u 6 ( x + 3 ) 6 x\cdot h\sigma(x)=\frac{relu6(x+3)}{6} x?hσ(x)=6relu6(x+3)?,图像如下: SE modules at appropriate positions注意力模块无疑是轻量级网络完美的选择,本文探究了SE模块放置的位置,发现在网络深层的效果较好。 Larger convolution kernels使用更大的卷积核尺寸,发现在网络深层效果较好 Larger dimensional1×1conv layer after GAP在网络最后的GAP之后使用Pointwise卷积进行升维,以此提高网络的性能 Drop out实验发现drop out可以提高性能 实验结果与其他网络进行对比 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 8:41:24- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |