IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers -> 正文阅读

[人工智能]SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers

https://arxiv.org/pdf/2105.15203.pdf
文章提出了SegFormer,encoder由金字塔Transformer组成,不使用位置编码,而是使用一个3x3的逐深度卷积。decoder使用了简单的MLP。
因为分类与语义分割有很强的联系,因此设计一个backbone用来分割是很重要的。
思考:Resnet刚开始也是作为分类使用的,然后语义分割也使用Resnet作为backbone,除此以外还有MobileNet。

VIT应用于语义分割有很多架构,而SETR则把VisionTransformer作为语义分割的backbone,PVT则是第一个在Transformer引入金字塔结构。金字塔结构可以产生高分辨率的精细特征图和低分辨率的粗略特征图。

思考:现在很多框架提出目标就是作为backbone来提取特征,传统的卷积作为encoder来提取特征,和transformer作为encoder来提取特征那个效果更好呢?

答案显而易见:如果纯粹为了MIOU,transformer可能更合适,decoder就可以设计的很简单,GPU资源有限的话,Resnet可能更合适,decoder就需要设计的很复杂。

我们看网络的架构:

?1:Segformer相比于VIT可以通过金字塔设计产生类似于卷积的多层特征,这些特征对语义分割来说大有裨益,多层特征图的大小如上图所示。

2:除此以外文章提出了overlapped patch merging。相比于不重叠的设计,重叠的设计可以保存局部连续性。

3:自注意力,为了减少Transformer的计算复杂度,原始的复杂度为N平方。我们通过设计新的方法来减少序列复杂度。

?原始维度为NXC,首先reshape为(N/R,CR),然后CR作为线性层输出,输出为C,这样新的维度就为(N/R,C)。R设置为[64,16,4,1]。

4:Mix-FNN,位置编码对于语义分割没那么重要,之前的文章提出卷积可以通过padding学习位置信息,而Mix-FNN是为了解决padding=0造成的信息缺失。Xin是自注意力的输出。

?5:轻量化MLP-decoder,该模块只包含MLP层,因此很大的减少了计算量。Decoder设计的如此简单得益于Transformer相比传统卷积有更的大感受野。即在Stage4有更多大的感受野。

注:下采样可以增大感受野,stage4比stage1感受野更大,因为他下采样了四次。

?

?实验设置:

8块特斯拉v100,encoder在imagenet1k上预训练,decoder随机初始化。使用AdamW优化器,学习率为0.00006,使用Ploy优化器策略,不使用tricks。验证阶段将图像的短边调整到训练时候的大小。

1:消融实验:

1.1:模型大小对结果影响,可以看到模型参数越多,效果越好。

?具体看一下每个模型的参数量和在各自数据集上表现:

?decoder参数量仅为encoder的百分之几,且decoder固定时,encoder越大,结果越好。

1.2:mlp的decoder通道对结果影响。

当通道为256时,参数量比较少,计算复杂度最小,且结果已经不错,虽然升高通道,结果会不断提高,但是?升高通道后,计算量会成倍增加,综合考量,C=256是性价比最高的。

1.3:位置编码对结果影响。

对于不同分辨率,本文的Mix-FFN结果比传统的position encoding高了不少。同时Mix-FFN对于 测试的分辨率变换更加具有鲁棒性。

1.4:感受野大小。

encoder分别采用CNN和MiT,decoder采用相同的MLPdecoder,结果如上,transformer作为encoder的效果高于CNN,原因是CNN不能提供更大的感受野,在全局推理时候就会力不从心。

2:实验对比:SOTA!!!!!!!!!!!!

?2.1对攻击的鲁棒性

2.2整体的网络配置

?

?

?

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-17 12:33:43  更:2022-10-17 12:38:34 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 20:53:14-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码