IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> CNN卷积神经网络之RegNet -> 正文阅读

[人工智能]CNN卷积神经网络之RegNet


前言

《Designing Network Design Spaces》
论文地址:https://arxiv.org/pdf/2003.13678.pdf
代码:https://github.com/facebookresearch/pycls
何恺明团队在CVPR 2020上发布的论文,提出了RegNet。在相同的训练设计和FLOPs的条件下,RegNet的精度超越了之前最SOTA的EfficientNet,并且在GPU上的速度比EfficientNet快5倍。EfficientNet中分辨率、深度、宽度对网络的性能影响是相互作用的。CNN卷积神经网络之EfficientNet

近些年来,NAS(Neural Architecture Search)网络搜索技术非常火,但这对计算资源要求很高。包括这篇论文中的RegNet也有使用到NAS技术。但之前的一些有关NAS的论文都是在给定的设计空间(designed search space)中通过搜索算法去搜索出一组最佳参数组合。但在这篇论文中作者要探究的是如何去设计设计空间(design design spaces)并发现一些网络的通用设计准则。

设计思路

AnyNet设计空间

AnyNet设计空间是这篇论文中提出的最原始的设计空间,网络的主体就是由三部分组成(stem,body,head)。其中stem和head是固定不变的,stem就是一个普通的卷积层。head就是分类网络中常见的分类器,由一个全局平均池化层和全连接层构成。网络中最主要的就是body部分,body是由4个stage堆叠组成,而stage是由一系列block堆叠组成。但block的详细结构以及参数并没有做任何限制。论文作者说,根据他们的经验将block设计为带有分组卷积的残差结构。
所以接下来作者开始想办法减少搜索量
这一路限制下来,搜索空间迅速下降,有点概率统计基础的可以很容易得到下面的结果:

在这里插入图片描述
其实作者还将原来AnyNetX设计空间的维度d从16个维度减少到6个维度,大小接近10个数量级。
此外,最后一个RegNet,作者认为,一个stage里的所有block的w通道数应该是一致的。

网络结构

在这里插入图片描述

在这里插入图片描述

RegNetY=RegNetX+SE,RegNetY在block中的3x3 Group Conv后接了个SE(Squeeze-and-Excitation)模块。CNN卷积神经网络之SENet

在这里插入图片描述

在这里插入图片描述

实验结果

RegNet和现有的SOTA移动端模型的性能对比:
在这里插入图片描述
RegNet和ResNet、ResNext模型的对比结果,与ResNet差不多的计算量下,RegNet性能更好(但是感觉跟ResNext不相上下):😃
在这里插入图片描述

RegNet和SOTA EfficientNet 模型的对比结果:
在这里插入图片描述

消融实验结论

  • 固定深度:
    作者观察到顶级模型的深度相当稳定(~20个块)。比较在不同的flops区间使用固定深度,对每个模型进行了100个epoch的训练。令人惊讶的是,在平均和最佳情况下,在所有的flops区间,固定深度网络可以与深度不同的网络的性能相匹配。

  • 更少的阶段:
    在高flops区间,最佳的REGNET模型在第四阶段有很少的块(一个或两个)。因此,作者在6.4GF下测试只要3个阶段的网络,训练100个epochs。结果观察到三阶段网络的性能相当差。然而,我们注意到,为了使三阶段网络运行良好(留作将来的工作),可能需要额外的改变(例如,在网络stem或head)。

  • 反向瓶颈:
    使用反向瓶颈(b<1,即先升维再降维)会降低性能。

  • Swish与ReLU:
    最近的许多方法使用Swish激活函数,作者使用Swish和ReLU研究RegNetY。发现Swish在低flops下优于ReLU,但在高flops下,ReLU更好。有趣的是,如果g被限制为1(深度可分离卷积),Swish的性能要比ReLU好得多。这表明深度可分离卷积和Swish的交互作用是有利的,尽管根本原因还不清楚。

上一篇:CNN卷积神经网络之EfficientNet

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-02-07 13:43:59  更:2022-02-07 13:46:59 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 19:55:41-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码