| |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| -> 人工智能 -> 【Attention】Visual Attention Network -> 正文阅读 |
|
|
[人工智能]【Attention】Visual Attention Network |
论文链接:https://arxiv.org/abs/2202.09741 一、背景源于 NLP 的 self-attention 机制在应用于 2D 图像的时候,有三个问题: 二、动机为了解决上述问题,本文提出了一个适用于视觉任务的 large kernel attention (LKA),使得 self-attention 能够自适应捕捉长距离关系。 三、方法LKA 吸收了卷积和 self-attention 的优势——包括局部结构信息、长距离依赖、自适应性 基于 LKA,作者提出了新的视觉 backbone——visual attention network(VAN)。 3.1 Large Kernel Attention
如图 2,一个大尺寸的卷积可以分成三个部分:
也就是说,一个 K × K K \times K K×K 的卷积可以被拆分如下:
拆分后的卷积可以捕捉长距离信息,并且节省计算资源,得到长距离关系后,能够估计每个点的重要程度,生成 attention map。
如图3a所示,LKA 模型如下: 3.2 VANVAN 结构简单,有四层,不同量级的模型结构如表 2 所示: 对图3d中的每个stage,首先将输入进行下采样,然后再进行后续操作。 复杂度分析:
实现细节如下,使用下面三种卷积实现类似 21x21 的卷积
四、效果4.1 分类
4.2 目标检测
4.3 语义分割
|
|
|
|
|
| 上一篇文章 下一篇文章 查看所有文章 |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| 360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年11日历 | -2025/11/29 13:33:24- |
|
| 网站联系: qq:121756557 email:121756557@qq.com IT数码 |