IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Feature Boosting Suppression and Diversification for Fine-Grained Visual Classification论文阅读与复现 -> 正文阅读

[人工智能]Feature Boosting Suppression and Diversification for Fine-Grained Visual Classification论文阅读与复现


??这是一篇2021年放在arxiv上面的一篇关于细粒度识别的文章,提出了两个新颖的模块,称之为:FBSM特征增强和抑制模块,FDM特征融合模块。经验证、效果显著!
论文地址: https://arxiv.org/abs/2103.02782
Github地址: https://github.com/chaomaer/FBSD
机构:National Key Laboratory for Novel Software Technology
Nanjing University, Nanjing 210023, China

论文阅读

1.问题动机

??从有区别的局部区域学习特征表示在细粒度视觉分类中起着关键作用。利用注意力机制提取零件特征已经成为一种趋势。然而,这些方法有两个主要的局限性:首先,它们通常只关注最显著的部分,而忽略了其他不明显但可区分的部分。其次,他们孤立地对待不同的零件特征,而忽略了它们之间的关系。

2.解决思路

??通过引入两个轻量级模块,它们可以很容易地插入到现有的卷积神经网络中。一方面,引入了一个特征增强和抑制模块FBSM,该模块增强特征图中最显著的部分以获得特定于零件的表示,并抑制它以迫使后续网络挖掘其他潜在零件。另一方面,引入了一个特征多样化模块,它从相关的部件特定表示中学习语义互补的信息。结构图如下;
在这里插入图片描述

2.1FBSM

??首先是从主干网络中的某一特定的层输出的特征图X开始,送入FBSM模块,具体来说:
一、获得最显著性区域特征图
1、先是把特征向量沿着宽维度分割成k部分,得到x(i)
2、接着同等对待这k部分特征向量、先经过1 × 1 卷积把通道数变为一,接着跟上BatchNorm2d函数和Relu函数进行数据的归一化。
在这里插入图片描述

3、然后跟上自适应的平均池化层进行压缩空间维度信息,使每一部分的空间高和宽大小变为1 × 1 、得到每一部分的重要性因子。
在这里插入图片描述
4、再把这k部分在宽维度上拼接起来得到B’。
5、在对宽维度的k个数据进行归一化,得到每一部分对应的归一化后的分数(即重要性因子)。

在这里插入图片描述

6、再使用torch.repeat_interleave函数将宽维度上的size恢复到输入到FBSM时的size。
7、此时已经可以根据分数判断最显著性的区域,紧接着根据公式获取最显著性区域的特征图 X b X_b Xb?
在这里插入图片描述
8、此时最显著性的特征图已经可以水平送入到下一阶段,即FDM模块。
二、获取最显著性区域被抑制的特征图
1、通过之前获得的最显著性部分、即可获得抑制特征图 X s X_s Xs?,根据公式可求得抑制性特征图中每一部分的重要性因子,我个人理解为除了之前得到的最显著性区域以外的部分都是重要的(用1表示),就是要迫使网络学习除了最显著性特征以外的其他的具有区别性的特征。

在这里插入图片描述
2、与原始特征图点乘得到抑制性特征图 X s X_s Xs?
在这里插入图片描述
3、把抑制性特征图 X s X_s Xs?垂直送入到下一个FBSM模块

??In short, the functionality of FBSM can be expressed as: F B S M ( X ) = ( X b , X s ) FBSM(X)=(X_b,X_s) FBSM(X)=(Xb?,Xs?). Given feature maps X, FBSM outputs part-specific feature and potential feature maps
. Since suppresses the most salient part in current stage, other potential parts will stand out after feeding into the following stage

在这里插入图片描述

2.2FDM

??看论文看的头大,还是看代码理解的更容易理解。下面结合代码讲述一下FDM的工作原理。
1、FDM的输入为上一模块FDSM的输出、即最显著性特征图 X b 1 X_{b1} Xb1?, X b 2 X_{b2} Xb2?, X b 3 X_{b3} Xb3?,然后进过卷积运算,通道数先都变为512,再都变为1024,最后得到通道注意力图att1,att2,att3。代码以第一层特征图为例、如下:

#fm1就表示FBSM输出的显著性特征图,即Xb1,以第一层为例
att1 = self.conv_block1(fm1)
#feature_size = 512,part_feature = 1024
self.conv_block1 = nn.Sequential(
            BasicConv(chans[0], feature_size, kernel_size=1, stride=1, padding=0, relu=True),#chans[0]为输入特征图的通道数
            BasicConv(feature_size, part_feature, kernel_size=3, stride=1, padding=1, relu=True),
        )

2、将得到的通道注意力送入FDM模块(进行特征的融合,即多样化处理),注意注意力向量两两结合的方式,1和2、1和3、2和3。最后可以得到两张注意图相互之间互补的信息。

		new_d1_from2, new_d2_from1 = self.inter(att1, att2)  # 1 2
        print("new_d1_from2.shape:{:}".format(new_d1_from2.shape))
        print("new_d2_from1.shape:{:}".format(new_d2_from1.shape))
        new_d1_from3, new_d3_from1 = self.inter(att1, att3)  # 1 3
        print("new_d1_from3.shape:{:}".format(new_d1_from3.shape))
        print("new_d3_from1.shape:{:}".format(new_d3_from1.shape))
        new_d2_from3, new_d3_from2 = self.inter(att2, att3)  # 2 3
        print("new_d2_from3.shape:{:}".format(new_d2_from3.shape))
        print("new_d3_from2.shape:{:}".format(new_d3_from2.shape))
self.inter = FDM()
class FDM(nn.Module):
    def __init__(self):
        super(FDM, self).__init__()
        self.factor = round(1.0/(28*28), 3)
        print("self.factor:{:}".format(self.factor))

    def forward(self, fm1, fm2):
        b, c, w1, h1 = fm1.shape
        _, _, w2, h2 = fm2.shape
        fm1 = fm1.view(b, c, -1) # B*C*S
        print("==========FDM==========")
        print("fm1.shape:{:}".format(fm1.shape))
        fm2 = fm2.view(b, c, -1) # B*C*M
        print("fm2.shape:{:}".format(fm2.shape))

        fm1_t = fm1.permute(0, 2, 1) # B*S*C

        # may not need to normalize
        fm1_t_norm = F.normalize(fm1_t, dim=-1)
        fm2_norm = F.normalize(fm2, dim=1)
        M = -1 * torch.bmm(fm1_t_norm, fm2_norm) # B*S*M

        M_1 = F.softmax(M, dim=1)
        M_2 = F.softmax(M.permute(0, 2, 1), dim=1)
        new_fm2 = torch.bmm(fm1, M_1).view(b, c, w2, h2)
        new_fm1 = torch.bmm(fm2, M_2).view(b, c, w1, h1)

        return self.factor*new_fm1,self.factor* new_fm2

??注意论文里面有这样一句话,我想可以这样理解: Y p 1 p 2 Y{^{p_2}_{p_1}} Yp1?p2??表示P1相对于P2的互补信息,那么 Y p 2 p 1 Y{^{p_1}_{p_2}} Yp2?p1??表示P2相对于P1的互补信息,确实有点绕啊,但是却很好的表达了特征和融合的思想。
在这里插入图片描述
3、接下来,就是把刚才得到的互补的信息进行融合得到增强后的特征(此时的两两融合不同于之前的组合方式、可以回头看下框架图的PCM部分)总之,作者设计的很巧妙。

		gamma = HyperParams['gamma']
        att1 = att1 + gamma*(new_d1_from2 + new_d1_fr`在这里插入代码片`om3)
        print("==========FDM_OUT==========")
        print("att1.shape(att1 = att1 + gamma*(new_d1_from2 + new_d1_from3)):{:}".format(att1.shape))
        att2 = att2 + gamma*(new_d2_from1 + new_d2_from3)
        print("att2.shape(att2 = att2 + gamma*(new_d2_from1 + new_d2_from3)):{:}".format(att2.shape))
        att3 = att3 + gamma*(new_d3_from1 + new_d3_from2)
        print("att3.shape(att3 = att3 + gamma*(new_d3_from1 + new_d3_from2)):{:}".format(att3.shape))

4、对上一步得到的增强后的特征图进行分层池化(TopK)

xl1 = self.pool(att1)
self.pool = TopkPool()
class TopkPool(nn.Module):
    def __init__(self):
        super(TopkPool, self).__init__()

    def forward(self, x):
        b, c, _, _ = x.shape
        x = x.view(b, c, -1)
        topkv, _ = x.topk(5, dim=-1)
        return topkv.mean(dim=-1)

5、最后进行线性分类

 xc1 = self.classifier1(xl1)
 self.classifier1 = nn.Sequential(
            nn.BatchNorm1d(part_feature),
            nn.Linear(part_feature, feature_size),
            nn.BatchNorm1d(feature_size),
            nn.ELU(inplace=True),
            nn.Linear(feature_size, class_num)

至此结束!
在这里插入图片描述

论文复现

1.环境

在这里插入图片描述
??此外,我还使用了Cudnn进行训练加速。

torch.backends.cudnn.benchmark = True

在这里插入图片描述

2.运行程序

??修改config.py文件里的参数,然后运行:

python train.py

2.1Resnet50主干

??bs=20,epoch=200
在这里插入图片描述

2.2Densenet161主干

??bs=10,epoch=265
在这里插入图片描述

3.训练得到的精度与论文里的比较

在这里插入图片描述
??我认为质量很高了,精度非常接近。力挺!我训练的竟然在Densenet161还超过了论文里的精度!

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-07-24 11:26:17  更:2021-07-24 11:26:42 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/17 20:46:24-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码