IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> End-to-End Object Detection with Transformers 论文阅读笔记 -> 正文阅读

[人工智能]End-to-End Object Detection with Transformers 论文阅读笔记

End-to-End Object Detection with Transformers 论文阅读笔记


  • 这是ECCV2020的一篇文章,从被引程度看可以说是一篇神作了,是开创性的一篇论文,提出了一种新的end-to-end的目标检测框架,简称为DETR,在大目标上比现有方法有更高的精度,但在小目标上精度有所降低。而且另一个缺点是,训练时间很长。。
  • 目前的目标检测多数是非end-to-end的,因此受预设的anchor和nms的后处理等先验的影响较大。文章将目标检测任务当作一个set prediction任务(set prediction就是需要预测一个具有任意数量元素的集合的任务,比如翻译),这是不同于以往目标检测框架的一点。

set prediction

  • 对于set prediction任务,最普遍的就是用encoder-decoder的结构去做sequence prediction。文章同样利用transformer构建了一个这样的结构去完成end-to-end的目标检测任务。set prediction的loss采取的是基于匈牙利算法的二分匹配的loss,至于二分匹配是什么,匈牙利算法是什么,自己搜一下就知道了。
  • 关键点有两个,一个是需要一个能够预测set的网络结构,一个是设计一个loss,当loss下降时能够推动网络朝着“预测的每个目标能够唯一匹配一个GT box”这样的趋势去调整。
  • 首先说loss。模型预测固定数量的bbox(N个,并且N比数据集中最多个GTbox的图片的box还多得多),并且将GTbox的集合用空元素填充至N个。也就是说现在有两个集合,一个是预测集合,有N个元素,一个是GT集合,也有N个元素(某些元素为空)。然后定义一次配对的loss如下:
    在这里插入图片描述
    即,loss与预测值中对应GTbox的类别的概率与预测值的box坐标和GTbox的坐标有关。
  • 然后利用匈牙利算法求解以下的二分匹配最优化问题:
    在这里插入图片描述
    便可以将预测集合与GT集合的元素之间进行一一配对。(这里的 L m a t c h \mathcal{L}_{match} Lmatch?就是上面的配对loss)
  • 接着将匈牙利算法找到的最佳配对,算目标检测的loss(注意,上面的loss是用匈牙利算法去最优化找到最优配对的,这里的loss是用来梯度下降训练网络参数的):
    在这里插入图片描述
    实际应用中会做加权和,对GTbox为填充的空元素的加和项乘以0.1的权重(考虑类不平衡的策略),有点类似Faster-RCNN中的背景box所采取的策略(Faster-RCNN将与所有GTbox的IOU都小于阈值的预测box标记为背景类的label去算loss,而这里也是一样,匈牙利算法匹配到空元素的预测box相当于背景框)。
  • 上面提到的 L b o x \mathcal{L}_{box} Lbox?定义如下:iou loss是已有的算法,L1 loss没有仔细说,具体可以看代码(等我有空看完代码再来填坑)。 在这里插入图片描述

网络结构

  • 网络由三部分组成:前端的卷积神经网络,中间的transformer组成的encoder-decoder,后面的全连接。
  • 卷积神经网络将图片输入卷积并下采样为原来的1/32
  • transformer部分首先利用1x1卷积将通道数减少,然后将 C × H × W C\times H\times W C×H×W的特征图拆成HW个word,每个word为 1 × C 1\times C 1×C的vector,并提供位置编码,这样送进transformer enccoder,具体结构参考的是提出transformer的文章(“attention is all you need”)的结构。
  • decoder部分相比原本的transformer做了修改,首先是设了N个可训练的embedding(称为object queries,代表了N个box的位置信息),对这N个embedding没有顺序地并行转化为N个output embedding。
  • 输出的这N个embedding被送进了一个3层的全连接网络,产生了最终的回归结果和分类结果。注意分类器是加了一个背景类的softmax。
  • 网络结构如下(其实文章中讲得不太仔细,最好是能自己看看代码,等我有空看完代码再来填坑)
    在这里插入图片描述
  • 此外decoder部分还用上了Auxiliary decoding losses(来自"Character-level language modeling with deeper self-attention")。
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-02 10:49:09  更:2021-08-02 10:49:22 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/17 20:43:12-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码