IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> MobileViT——论文简述 -> 正文阅读

[人工智能]MobileViT——论文简述

一、目的

如今,自注意力模型(如vision transformer)成为了CNN的一种替代,要想提高其性能,需要增加网络中参数的数量,但这势必导致模型太贵和训练缓慢的问题。ViT不像CNN那样容易优化,它需要大量的数据增强以及正则化来减少过拟合;同时对于密集的预测任务而言花费又太大。

为了将自注意力模型应用到移动端,作者指出ViT模型需要大量参数的原因是缺少空间归纳偏置,而这在CNN中是本来就存在的,故而提出将CNN与transformer模型相结合的方法,同时又能减少模型参数。

在移动端的模型需要具备低权重、低时延和准确性。由于移动端的特点,FLOPs的优化(DynamicViT)显得没那么重要,作者关注 light-weight、general-purpose和low latency三个方向进行模型设计。

MobileViT能用更少的参数以及更简单的训练方法来进行更好的特征学习。

二、模型结构

在这里插入图片描述
如上图所示是一个标准的ViT模型。P=wh(patch的宽和高)。
在这里插入图片描述
如上图所示是MobileViT的架构图。其核心思想是用transformer学习全局特征,这使得在网络中隐含地纳入类似卷积的属性(如空间归纳偏置),用简单的训练方法(如基本的增强),并容易将MobileViT与下游架构(如用于语义分割的DeepLabv3)整合。

2.1 MobileViT block

MobileViT block的目的是用更少的参数对全局和局部的信息进行建模。其中n = 3,h = w = 2。

(1)对于一个 H x W x C 的输入张量,先用 n x n 大小的卷积编码局部空间信息,再用点卷积通过学习输入通道的线性组合将张量投射到 d 维,其中 d > C

(2)对于 H x W x d 的张量,将其展平成 NP x d 的patch,其中 P = whN = HW / P,再经过 L 个transformer。由于Mobile即不丢失patch的顺序,也不丢失每个patch中各个像素之间的空间位置,所以可以将其 foldH x W x d 的张量。

(3)接着用点卷积将张量映射到 C 维,并且与最初的输入进行拼接,再用 n x n 大小的卷积进行特征融合。

unfold 成的 P x N x d 通过卷积编码了 n x n 大小的局部空间信息,通过transformer后的张量的每一个位置 p(1 ≤ p ≤ P) 又编码了 P 个patch的信息(每个红色的像素与对应蓝色像素做attention),如下图所示。

在这里插入图片描述
标准的卷积操作可以看作:(1) unfolding,(2) matrix multiplication (学习局部特征), (3) folding 三种操作之和,MobileViT block也是类似,只不过将matrix multiplication替换为一系列的transformer层(全局处理),结果就是MobileViT也拥有卷积的类似属性。

res = x
fm = self.local_rep(x)

# convert feature map to patches
patches, info_dict = self.unfolding(fm)

# learn global representations
for transformer_layer in self.global_rep:
    patches = transformer_layer(patches)

# [B x Patch x Patches x C] -> [B x C x Patches x Patch]
fm = self.folding(x=patches, info_dict=info_dict)

fm = self.conv_proj(fm)

fm = self.fusion(torch.cat((res, fm), dim=1))

2.2 多尺度采样

对于ViT模型,一个标准的方法就是微调。同CNN一样,MobileViT不需要进行位置编码,多尺度的输入对训练也是有帮助的。论文中描述了对于不同分辨率图像 batch size 的选择。
在这里插入图片描述
实验中采用S = { (160; 160); (192; 192); (256; 256); (288; 288); (320; 320) }

三、结果

在这里插入图片描述
在这里插入图片描述
有一点可以确定的是,MobileViT比MobileNetv2要运行的慢。

(1)在GPU上存在专门的CUDA内核用于transformer,以提高其在GPU上的可扩展性和效率;

(2)CNN受益于设备层面的优化,包括batch normalization与卷积层的融合,这些优化改善了延迟和内存访问。

然而,为transformer设计的优化操作目前还不能用于移动设备。因此,移动设备上MobileViT和基于ViT的网络是次优的。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-09-21 00:29:07  更:2022-09-21 00:30:25 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 23:00:59-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码