IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Learning Transferable Adversarial Perturbations -> 正文阅读

[人工智能]Learning Transferable Adversarial Perturbations

在知乎上关注了一个大佬ZehaoDou窦泽皓,基本做到每天或者隔两天更新一篇已读论文,特别佩服大佬的毅力,因此想像他学习,也算记录自己读过的部分论文,方便下次查找。最后附送大佬主页:ZehaoDou 窦泽皓

2021.12.4 第1篇(NeurIPS 2021) 精读
原文链接:Learning Transferable Adversarial Perturbations
代码链接:Learning Transferable Adversarial Perturbations(截止目前,作者还只传了个壳)
在这里插入图片描述
对抗样本迁移性:同样的对抗样本,会同时被不同的分类器错误分类。
文章从以下三方面入手研究扰动的迁移性:

  • target architecture, e.g., the generator was trained to attack a VGG-16 but the target network is a ResNet152;
  • target data, e.g., the generator was trained using the Paintings dataset but the test data comes from ImageNet;
  • target task, e.g., the generator was trained to attack an image recognition model but faces an object detector at test time

由于他们发现中间层的特征在不同模型结构、数据和任务上有很强的相似性,因此文章利用DNN中间层的特征来提高扰动生成器跨模型、数据和任务的可转移性。
在这里插入图片描述

Contributions

  • identify the intermediate features of CNNs as common ground across different architectures, different data distributions and different tasks.
  • introduce an approach that exploits such features to learn an effective, transferable perturbation generator.
  • systematically investigate the effect of target architecture and target data distribution on the transferability of adversarial attacks.

Methodolgy

方法很简单,设计一个扰动生成器 G \mathcal{G} G,使
L f e a t ( x i , x i ^ ) = ∣ ∣ f l ( x i ) ? f l ( x i ^ ) ∣ ∣ F 2 \mathcal{L}_{feat}(x_i,\hat{x_i})=\mid\mid f_{\mathcal{l}}(x_i)-f_{\mathcal{l}}(\hat{x_i})\mid\mid_{F}^{2} Lfeat?(xi?,xi?^?)=fl?(xi?)?fl?(xi?^?)F2?
这里 x i x_i xi?是原图, x i ^ \hat{x_i} xi?^?是经过扰动生成器 G \mathcal{G} G后的图,扰动生成器 G \mathcal{G} G的目标就是为了让正常样本和扰动样本在模型相应层的距离最大,算法如下:
在这里插入图片描述
从Figure2可以看出 the bottom filters, close to the input image, extract color and edge information. The top-level filters, close to the output layer, shown in the right block, are more focused on the object representation, and thus more task specific. By contrast, the mid-level filters learn more nuanced features, such as textures, and therefore tend to display similar patterns across architectures, 这也就解释了为什么文章要选择中间层特征而不是前几层或者最后几层特征。
在这里插入图片描述
从Figure3可以看出,ChestX dataset和其他数据集的gap很大,而Comics or Paintings datasets和ImageNet dataset的gap较小,因此Comics or Paintings datasets也更适合迁移到ImageNet dataset。
在这里插入图片描述
Figure4进一步证明了Paintings datasets比ChestX dataset和ImageNet dataset的gap更小(激活值更相似)。
在这里插入图片描述
Comparing with previous works
Table 1可以看出本文所提方法的对抗样本迁移性比之前的好很多(不过感觉方法有点老)
在这里插入图片描述
Figure5展示了相同类内模型对抗样本迁移性的比较
在这里插入图片描述
Figure6展示了不同训练数据量得到的模型对抗样本迁移性的比较
在这里插入图片描述
Transferability to Unknown Target Data
Unlike standard black-box attacks, where the attacker has access to a substitute model from a different family of architectures trained on the target data and to the target data itself. Strict back-box attacks, where the attacker also uses a substitute model trained on the target data, but without having access to the target data itself.
在这里插入图片描述
Table 2显示了在获取不到真实数据集的情况下使用其他数据集验证对抗样本的迁移性。
在这里插入图片描述
Table 3显示了在获取不到真实数据集的情况下使用ChestXNet数据集迁移到其他数据集上的不同模型的性能。
在这里插入图片描述
Table 4显示了在对抗防御模型上的对抗样本迁移成功率。
在这里插入图片描述
Table 5显示了跨任务在不同数据集和模型上的对抗样本迁移成功率。
在这里插入图片描述
Figure 7显示了本文提出的方法能够比较明显地区分对抗样本和正常样本(毕竟他的损失就是让正常样本和对抗样本的距离最大)。
在这里插入图片描述
Figure 8显示了本文提出的方法生成的扰动图片的效果比baseline好很多。
在这里插入图片描述As can also be seen in Figure 9, the perturbations follow repeating patterns corresponding to the patterns of the most disrupted mid-level filters. Our filter visualizations for multiple networks reveals that the bottom layers learn such horizontal and vertical stripes. While we tried training the generator to perturb such layers, we observed that larger ? \epsilon ? strength are required in this case. Overall, our results evidence that attacking mid-level filters that have strong correlations across architectures consistently improves the transfer rates.
在这里插入图片描述个人总结
虽然我几乎没看过对抗样本迁移性的文章,不知道这个领域的发展现状如何,但是光从一个外行人的角度来说,这篇文章写作的思路很清晰,实验量也非常之大,非常值得好好学习一下,希望他的代码能全部开源!!!此外由于笔者是对抗样本迁移性小白,文章可能有理解错误的地方,希望大家能多多谅解。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-12-05 12:02:52  更:2021-12-05 12:03:59 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 3:54:11-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码