| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 【论文】MCAN -> 正文阅读 |
|
[人工智能]【论文】MCAN |
【论文】zhou Yu, Jun Yu, Yuhao Cui, Dacheng Tao, and Qi Tian. Deep modular co-attention networks for visual question answering. (pdf) What is MCANMCAN 主要工作可以总结为下面两点:
从 MCAN 的工作内容也很容易看出作者的 motivation —— 现有 co-attetnion learning 不足。之前的 co-attention learning 只在浅层模型中实现,即使通过串联形成深层的 co-attention model 性能提升却并不显著。这样的注意力机制只能够学习到不同模态之间粗糙的交互,也不够进行图像和问题关键词的关系推断。于是,作者提出了 MCAN,a deep Modular Co-Attention Network Modular Co-Attention LayerSelf-Attention and Guided-Attention Units 受 transformer 中注意力模块单元的启发,作者设计了如下两个类似的注意力单元作为 MCA layer 的基础组成元件
Modular Composition for VQA MCA layer 有三种变体将两个注意力单元结合起来:
Modular Co-Attention Networks整个网络如下图所示,分为了三个模块,下面将分别介绍每个模块的详细内容。由于 Deep Co-Attention Learning 有两种方式,对采用 stacking 结果的 L L L 层 MAC 的模型称为 MCANsk-L,采用 encoder-decoder 结构的模型称为 MCANed-L Question and Image Representations 与之前的工作一样使用 Faster RCNN 提取视觉特征, x i ∈ R d x x_i\in\mathbb R^{d_x} xi?∈Rdx? 表示第 i i i 个物体。不同的是,作者对检测到物体的概率设定了一个置信度阈值,这样检测到的物体数量就不是固定的, m ∈ [ 10 , 100 ] m\in[10,100] m∈[10,100]。最终图像的特征矩阵为 X ∈ R m × d x X\in\mathbb R^{m\times d_x} X∈Rm×dx? 将问题拆分为 n n n 个单词后分别经过 Glove word embedding 和具有 d y d_y dy? 个隐藏单元的单层 LSTM ,保留所有单词的输出构成问题的特征矩阵 Y ∈ R n × d y Y\in\mathbb R^{n\times d_y} Y∈Rn×dy? 为了处理 m , n m,n m,n 不固定的问题,使用 zero-padding 将 X 、 Y X、Y X、Y 填充到最大长度 m = 100 , n = 14 m=100,n=14 m=100,n=14 Deep Co-Attention Learning 首先,deep co-attention model 由 L L L 层 MAC layer 堆叠而成,即满足 [ X ( l ) , Y ( l ) ] = M C A ( l ) ( [ X ( l ? 1 ) , Y ( l ? 1 ) ] ) [X^{(l)},Y^{(l)}]=MCA^{(l)}\left([X^{(l-1)},Y^{(l-1)}]\right) [X(l),Y(l)]=MCA(l)([X(l?1),Y(l?1)]) 这里有两种构成方式,如下图所示 Multimodal Fusion and Output Classi?er 记 deep co-attention model 的输出分别为 X ( L ) = [ x 1 ( L ) , ? ? , x m ( L ) ] X^{(L)}=\left[x_1^{(L)},\cdots,x_m^{(L)} \right] X(L)=[x1(L)?,?,xm(L)?] 和 Y ( L ) = [ y 1 ( L ) , ? ? , y n ( L ) ] Y^{(L)}=\left[y_1^{(L)},\cdots,y_n^{(L)} \right] Y(L)=[y1(L)?,?,yn(L)?],接着两个输出都会经过一个 attention reduction model 最终输出 x ~ \tilde x x~ 和 y ~ \tilde y y~?,该模型由两层的 MLP 构成( FC (4 d d d) - ReLU - Dropout (0.1) - FC (1) ) 以
X
(
L
)
X^{(L)}
X(L) 为例, 最后,使用 binary cross-entropy(BCE)损失在融合特征 z z z 上训练一个 N-way 分类器 Experiments下图是论文中一些消融实验的结果 下图展示了 MCA layer 三种变体在 VQA 子任务上的表现 下图可视化了 MCANsk-6 和 MCANed-6 的注意力分布 下图展示了一些图像和文本 co-attention 的例子,其实这里有一个非常有意思的问题,要区分黑莓手机还是诺基亚,或者要区分击球手还是捕手,这类的 co-attention learning 或多或少依赖属于数据集对他们的区分,或者需要借鉴外部知识 下图是 MCAN 和其他一些比较新的 VQA 模型性能的比较 Referrence |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 10:25:38- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |