IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 目标检测4--Adaptive Training Sample Selection(ATSS)算法 -> 正文阅读

[人工智能]目标检测4--Adaptive Training Sample Selection(ATSS)算法


欢迎访问个人网络日志🌹🌹知行空间🌹🌹


1.简介

论文Bridging the Gap Between Anchor-based and Anchor-free Detection via
Adaptive Training Sample Selection

代码https://github.com/sfzhang15/ATSS

ATSS是中科院自动化研究所的Shifeng Zhang等最早于2019年12月份提交的论文中提出的方法,发表在CVPR2020会议上。

文中分析了Anchor BasedAnchor Free的检测方法,性能差异的主要原因在于正负训练样本的定义方式不同,而和回归目标是基于**点式(point)还是盒式(box)**关系不大。Anchor Free检测常用的有两种方法,一种是keypoint_based,另一种是center_basedkeypoint_basedAnchor Free目标检测算法同标准的keypoint estimation pipeline,和anchor based的目标检测算法差异较大。但center_basedAnchor Free目标检测算法与Anchor Based的方法比较相近,center_based方法将point作为预设样本(如FCOS),Anchor Based方法是将anchor作为预设样本(如RetinaNet)。Anchor BasedRetinatNetCenter BasedFCOS的主要区别是:

  • 1)feature map中每个位置的anchor数量不同,RetinaNet每个点生成多个anchor boxes,FCOS每个点生成一个anchor point
  • 2)正负样本的定义方式不同,RetinaNet使用IoU来判定正负样本,FCOS使用patial and scale constraints来判断。
  • 3)回归起始状态不同。RetinaNet是基于Anchor Box ( t x , t y . t ω , t h ) (t_x,t_y.t_\omega,t_h) (tx?,ty?.tω?,th?)FCOS是基于Anchor Point ( l l , l t , l r , l o ) (l_l,l_t,l_r,l_o) (ll?,lt?,lr?,lo?)

ATSS分析了Anchor BasedAnchor Free检测算法实现上的差异,得出的结论是正负样本定义方式的不同影响了两种方法检测效果的差异。基于此论文提出了Adaptive Training Sample Selection(ATSS)算法以基于目标特征自动的计算正负样本。本文还基于实验得出了在同个位置没必要使用多个anchor box做检测的结论。

2.目标检测相关

ObjectDetector
AnchorBased
AnchorFree
OneStage:SSD
fusing context information from different layers
training from scratch
introducing new loss function
anchor refinement and matching
architecture redesign
feature enrichment and alignment
TwoStage:FasterR-CNN
architecture redesign and reform
context and attention mechanism
multiscale training and testing
training strategy and loss function
feature fusion and enhancement
better proposal and balance
KeyPointBased:CornerNet/GridR-CNN/ExtremeNet/CenterNet/RepPoints
CenterBased:YOLO/DenseBox/FCOS/CSP/FoveaBox

3.Anchor BasedAnchor Free目标检测算法的差异分析

Anchor Based选择RetinaNet作为代表,Anchor Free选择FCOS作为代表,从以下三方面进行分析:

  • 1)正负样本定义
  • 2)初始回归状态,是回归 t x , t y , t w , t h t_x,t_y,t_w,t_h tx?,ty?,tw?,th?还是 l l , l t , l r , l o l_l,l_t,l_r,l_o ll?,lt?,lr?,lo?
  • 3)每个位置的anchor数量

3.1 RetinaNetFCOS的对比

设置RetinaNetAnchor box数量为1。对FCOS的改进:

  • 1)将centernerss移到regression分支
  • 2)使用GIoU Loss
  • 3)将回归目标使用对应level的stride来归一化

这些提升了FCOS的检测效果,coco minival上的map37.1提升到了37.8,进一步拉开了Anchor=1RetinaNetFCOS的差距。

FCOS中使用的一些trickAnchor=1RetinaNet中也能使用,如检测头中使用的Group Normlization, GIoU,限制ground truth box中的正样本,对特征金字塔的每层加上一个中心度分支和可训练参数。将这些trick逐一加到RetinaNet上的对比结果为:

在这里插入图片描述

从上图可以看出,将所有的通用trick都应用到RetinaNet上后,MAP依然有0.8的差距。除了以上指出的通用性差异后,还有两点不同,一个是正负样本的定义方式,另一个是回归任务本身,RetinaNet是基于Anchor Box回归,FCOS是基于Anchor Point回归。

3.1 正负样本定义的区别

在这里插入图片描述

如上图,RetinaNet根据ground truth boxanchor box之间的IoU的值来判断是正样本还是负样本,通常设置两个超参数 ( I o U n e g , I o U p o s ) (IoU_{neg}, IoU_{pos}) (IoUneg?,IoUpos?),小于 I o U n e g IoU_{neg} IoUneg?的是负样本,大于 I o U p o s IoU_{pos} IoUpos?的是正样本,在两者之间的Anchor Box被忽略,不参与训练,RPN生产的Proposal Box基于FPN论文中提出的方程式2赋值给某个featureFCOS则先根据Anchor Point的空间位置是否落在ground truth box中找出可能为正的Anchor Point,再根据Anchor Point对应feature map上的回归范围regression scale来近一步确认是否为正样本,参考见博客FCOSNet。基于Spatial and Scale的正样本判定方式决定了检测器的优秀性能,如下表,使用Spatial and Scale后,Anchor=1的RetinaNetMAP也提升到了37.8,换用IoUFCOSMAP降到了36.9

在这里插入图片描述

3.2 回归起始位置的差异

如下图,Anchor=1的RetinaNet回归的是AnchorBox相对于ground truth box的平移缩放 ( t x , t y , t w , t h ) (t_x,t_y,t_w,t_h) (tx?,ty?,tw?,th?)即基于box的回归,而FCOS回归的是中心点距离ground truth box四边的距离 l l , l t , l r , l b l_l,l_t,l_r,l_b ll?,lt?,lr?,lb?,即基于点的回归。从上图中按行方向比较可以发现,使用boxpoint的回归方式对最终的结果影响不大,37->36.9,‵37.8->37.8`。

在这里插入图片描述

综合3.1和3.2的分析,可以得出结论:是正负样本的定义方式不同影响了Anchor BasedAnchor Free算法的性能

4.自适应训练样本选择

从前面作者得出的结论,How to define positive and negative samples极大影响了检测器的性能,基于此作者提出了新的samples分类算法,自适应训练样本选择(Adaptive Training Sample Selection, ATSS)

Anchor Based基于IoUAnchor Free基于Scale Range的正样本定义方法都依赖预先定义好的超参数ATSS提出了一种自适应取阈值的方法,减少了sample definition所需的超参数。

在这里插入图片描述

以一张输入图像为例说明上图ATSS算法的工作流程:

  • 1)对于1个ground truth box,分别在每个金字塔特征层上取中心 L 2 L_2 L2?距离最近的 k k kanchor boxes作为候选positive sample,对于有 L \mathcal{L} L个金字塔特征层的网络,共得到 k L k\mathcal{L} kLcandidate positive anchor boxes
  • 2)计算candidatesground truth boxes g ∈ D g g\in \mathcal{D}_{g} gDg?之间的IoU
  • 3)计算2)中IoU的均值 m g m_{\mathcal{g}} mg?和标准差 v g \mathcal{v}_{\mathcal{g}} vg?
  • 4)取 t g = m g + v g t_g=m_{\mathcal{g}}+\mathcal{v}_{\mathcal{g}} tg?=mg?+vg?作为阈值,大于 t g t_g tg?的是positive,其余的Anchor Boxes都是negative

作者指出,当一个anchor box同时落入两个ground truth box中时,会将其分配给IoU比较大的ground truth box

在这里插入图片描述

从上图可以看出ATSS的作用,对于某个ground truth box,图a中标准差较大,意味着有某个金字塔特征层比较适合预测该box,因此阈值 t g t_g tg?也比较大。图b中标准差不大,意味者可能有多个特征层适合预测当前box,因此选取的阈值 t g t_g tg?也较小。

作者还指出使用ATSS,可以使得对于不同大小的目标对象得到相同比例的正负训练样本。对于标准正态分布有16%的样本落在 [ v + σ , 1 ] [v+\sigma,1] [v+σ,1]之间,虽然IoU of candidates不是正态分布,正样本的比例依然保持在了20% of k L k\mathcal{L} kL 左右,和目标 s c a l e / a s p e c t r a t i o / l o c a t i o n scale/aspect ratio/location scale/aspectratio/location无关。而RetinaNetFCOS都会倾向于对大目标生成更多的正样本。

ATSS使用的超参数很少,只有k一个,且算法效果对k不敏感。实验证明k[3, 5, 7, 9, 11, 13, 15, 17, 19]map变化不大:

在这里插入图片描述

5.代码实现

mmdetectionATSS算法的实现在ATSSAssigner类中,assign的部分代码如下:

     # Selecting candidates based on the center distance
     candidate_idxs = []
     start_idx = 0
     for level, bboxes_per_level in enumerate(num_level_bboxes):
          # on each pyramid level, for each gt,
          # select k bbox whose center are closest to the gt center
          end_idx = start_idx + bboxes_per_level
          distances_per_level = distances[start_idx:end_idx, :]
          selectable_k = min(self.topk, bboxes_per_level)

          _, topk_idxs_per_level = distances_per_level.topk(
               selectable_k, dim=0, largest=False)
          candidate_idxs.append(topk_idxs_per_level + start_idx)
          start_idx = end_idx
     candidate_idxs = torch.cat(candidate_idxs, dim=0)

     # get corresponding iou for the these candidates, and compute the
     # mean and std, set mean + std as the iou threshold
     candidate_overlaps = overlaps[candidate_idxs, torch.arange(num_gt)]
     overlaps_mean_per_gt = candidate_overlaps.mean(0)
     overlaps_std_per_gt = candidate_overlaps.std(0)
     overlaps_thr_per_gt = overlaps_mean_per_gt + overlaps_std_per_gt

     is_pos = candidate_overlaps >= overlaps_thr_per_gt[None, :]

     # limit the positive sample's center in gt
     for gt_idx in range(num_gt):
          candidate_idxs[:, gt_idx] += gt_idx * num_bboxes
     ep_bboxes_cx = bboxes_cx.view(1, -1).expand(
          num_gt, num_bboxes).contiguous().view(-1)
     ep_bboxes_cy = bboxes_cy.view(1, -1).expand(
          num_gt, num_bboxes).contiguous().view(-1)
     candidate_idxs = candidate_idxs.view(-1)

     # calculate the left, top, right, bottom distance between positive
     # bbox center and gt side
     l_ = ep_bboxes_cx[candidate_idxs].view(-1, num_gt) - gt_bboxes[:, 0]
     t_ = ep_bboxes_cy[candidate_idxs].view(-1, num_gt) - gt_bboxes[:, 1]
     r_ = gt_bboxes[:, 2] - ep_bboxes_cx[candidate_idxs].view(-1, num_gt)
     b_ = gt_bboxes[:, 3] - ep_bboxes_cy[candidate_idxs].view(-1, num_gt)
     is_in_gts = torch.stack([l_, t_, r_, b_], dim=1).min(dim=1)[0] > 0.01

     is_pos = is_pos & is_in_gts


欢迎访问个人网络日志🌹🌹知行空间🌹🌹


参考资料

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-09-30 00:52:59  更:2022-09-30 00:54:23 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 22:59:56-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码