IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 无监督目标检测、显著度检测(简介):Unsupervised Object Discovery using Normalized Cut -> 正文阅读

[人工智能]无监督目标检测、显著度检测(简介):Unsupervised Object Discovery using Normalized Cut

Self-Supervised Transformers for Unsupervised Object Discovery using Normalized Cut

?

Yangtao Wang1 , Xi Shen2,3,? , Shell Xu Hu4 , Yuan Yuan5 , James L. Crowley1 , Dominique Vaufreydaz1

1 Univ. Grenoble Alpes, CNRS, Grenoble INP, LIG, 38000 Grenoble, France

2 Tencent AI Lab? ?3 LIGM (UMR 8049) - Ecole des Ponts, UPE

4 Samsung AI Center, Cambridge? ?5 MIT CSAIL

Paper:?https://arxiv.org/abs/2202.11539v2

Project: https://www.m-psi.fr/Papers/TokenCut2022/

Figure 1: The attention map of the class token used in DINO [6] (a) and the map of the inverse degrees used in LOST [45] (b) are noisy for foreground / background separation. Our proposed method provides a clean attention map that can be used to segment salient objects (c). Considering the attention map associated to different patches highlight different regions of the object (d), it is reasonable to build a graph computing attention maps from multiple patches.

本博客只简单介绍,对算法感兴趣的,详情还请看原文。

? Abstract??

Transformers trained with self-supervised learning using self-distillation loss (DINO) have been shown to produce attention maps that highlight salient foreground objects. In this paper, we demonstrate a graph-based approach that uses the self-supervised transformer features to discover an object from an image. Visual tokens are viewed as nodes in a weighted graph with edges representing a connectivity score based on the similarity of tokens. Foreground objects can then be segmented using a normalized graph-cut to group self-similar regions. We solve the graph-cut problem using spectral clustering with generalized eigen-decomposition and show that the second smallest eigenvector provides a cutting solution since its absolute value indicates the likelihood that a token belongs to a foreground object. Despite its simplicity, this approach significantly boosts the performance of unsupervised object discovery: we improve over the recent state of the art LOST by a margin of 6.9%, 8.1%, and 8.1% respectively on the VOC07, VOC12, and COCO20K. The performance can be further improved by adding a second stage class-agnostic detector (CAD). Our proposed method can be easily extended to unsupervised saliency detection and weakly supervised object detection. For unsupervised saliency detection, we improve IoU for 4.9%, 5.2%, 12.9% on ECSSD, DUTS, DUT-OMRON respectively compared to previous state of the art. For weakly supervised object detection, we achieve competitive performance on CUB and ImageNet.

使用自蒸馏损失 (self-distillation loss, DINO) 进行自监督学习的 Transformers 已经被证明可以生成突出前景物体的注意力图。?

本文演示了一种基于图的方法 (graph-based),该方法使用自监督 transformer?特征从图像中发现对象。视觉 tokens 被视为加权图中的节点,其边表示基于标记相似性的连通性得分。

使用归一化图形切割(normalized graph-cut)对自相似区域分组,这样前景对象可以被分割。

再使用光谱聚类和广义特征分解解决了图切割问题,并表明第二个最小的特征向量提供了切割解决方案,因为它的绝对值表明了一个 token 属于前景对象的可能性。

尽管它很简单,但这种方法显著提高了无监督对象发现的性能: 在 VOC07、VOC12 和 COCO20K上分别比 SOTA 提高了 6.9%、8.1% 和 8.1%。

可以通过添加第二级类无关检测器 (CAD) 来进一步提高性能。该方法可以很容易地推广到无监督显著性检测和弱监督目标检测。

对于无监督显著性检测,将 ECSSD、DUTS、DUT-OMRON 的 IoU 分别提高了 4.9%、5.2%、12.9%。

对于弱监督对象检测,在 CUB 和 ImageNet 上实现了具有竞争力的性能。

? Introduction??

当前最先进的目标检测器的性能受限于注释足够的训练数据。当使用迁移学习来适应一个预先训练的对象检测器到一个新的应用领域时,这种限制变得更加明显。主动学习 (active learning [1])、半监督学习[34 ]和弱监督学习[39] 等方法试图通过提供更有效的学习来克服这一障碍,但只取得了有限的成功。

本文专注于在没有人工标记的自然图像中的目标检测。目前解决这一问题的方法采用了一些形式的bounding box proposal mechanism,并将目标检测作为一个优化问题。然而,这种方法的计算成本很高[55],因为需要对不同图像上的每一对 bounding box proposals 进行比较,而且由于二次方计算开销(quadratic computation overhead),优化可能无法扩展到更大的数据集。

Transformers 最近被证明在视觉识别方面优于卷积神经网络。最近关于 DINO [6] 的研究结果表明,当使用 self-distillation loss 进行训练时,关联于来自最后一层的类别 token 的注意力图,可以表示为显著前景区域(the attention maps associated to the class token from the last layer indicate salient foreground regions)。然而,如图 1a 所示,这样的注意图是有噪声的,它们是否可以用于无监督目标发现尚不清楚。

文献 [45] 利用 LOST 构造一个图,利用节点的 inverse degrees 来分割对象。采用 seed expansion strategy 克服噪声 (图 1b),并检测前景目标的单个边界框。与不同节点相关联的注意图通常包含有意义的信息,如图 1d 所示。本文研究了是否可能利用整个图中的信息,通过特征分解将图投影到一个低维子空间。本文发现,这样的投影可以与归一化切割 (Normalized Cut [43]) 一起使用,以显著改善前景/背景分割 (图 1c)。

本文提出了一个简单但有效的基于图的无监督目标检测方法,TokenCut。其以 DINO[6] 为 backbone 特征编码器训练的自监督 vision transformer,利用得到的特征对目标进行定位。本文的方法不再只使用类 tokens,而是使用所有 taoken 特性。基于最后一个自注意层中的 token 特征构造了一个无向图,其中 visual tokens 被视为图节点,其边表示基于特征相似性的连通性得分。然后,使用标准化的图形切割来分组自相似区域,并划定前景对象。本文使用光谱聚类(spectral clustering)和广义特征分解解决图切割问题,并表明第二最小特征向量提供了一个切割解决方案,表明一个标记属于前景对象的可能性。本文的方法可以被认为是一个 run-time adaptation,这意味着模型能够适应每个特定的测试图像,尽管共享的训练模型。

尽管简单,但我们的方法显著改进了无监督对象发现。该方法在 VOC07[19]、VOC12[20]、COCO20K[33] 上分别达到 68.8%、72.1% 和 58.8%,分别超过 LOST[45] 的 6.9%、8.1% 和 8.1%。采用第二阶段 CAD 的 TokenCut 进一步将 VOC07、VOC12、COCO20k 的性能分别提高到 71.4%、75.3% 和 62.6%,分别比 LOST + CAD 提高了 5.7%、4.9% 和 5.1%。

此外,本文表明,TokenCut 可以很容易地扩展到弱监督对象检测和无监督显著性检测。对于弱监督对象检测,目标是仅使用图像级注释检测对象。首先,冻结编码器和微调线性分类器与弱监督图像标签。然后,对从微调编码器中提取的特征应用 TokenCut。该方法在 CUB 数据集 [59] 上产生了明显改善的结果,并在 ImageNet-1K [14] 上具有竞争力的性能。对于无监督显著性检测,使用该方法发现的前景区域,并使用双边求解器[5] 作为后处理步骤来细化前景区域的边缘。在结果方面,本文的方法显著改善了 ECSSD [44]、DUTS [60] 和 DUT-OMRON [67] 上之前最先进的方法。

[1] Hamed H Aghdam, Abel Gonzalez-Garcia, Joost van de Weijer, and Antonio M Lopez. Active learning for deep?detection neural networks. In ICCV, 2019.

[6] Mathilde Caron, Hugo Touvron, Ishan Misra, Herve J ′ egou, ′ Julien Mairal, Piotr Bojanowski, and Armand Joulin. Emerging properties in self-supervised vision transformers. In ICCV, 2021.

[43] Jianbo Shi and Jitendra Malik. Normalized cuts and image segmentation. TPAMI, 2000.

[45] Oriane Simeoni, Gilles Puy, Huy V. Vo, Simon Roburin, ′ Spyros Gidaris, Andrei Bursuc, Patrick Perez, Renaud ′ Marlet, and Jean Ponce. Localizing objects with selfsupervised transformers and no labels. In BMVC, 2021.

Figure 2: An overview of the TokenCut approach. We construct a graph where the nodes are tokens and the edges are similarities between the tokens using transformer features. The foreground and background segmentation can be solved by Ncut [43]. Performing bi-partition on the second smallest eigenvector allows to detect foreground object.

?

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-06-16 21:42:28  更:2022-06-16 21:44:15 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 2:34:54-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码