IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Unified Batch All Triplet Loss for Visible-Infrared Person Re-identification -> 正文阅读

[人工智能]Unified Batch All Triplet Loss for Visible-Infrared Person Re-identification

论文:https://arxiv.org/pdf/2103.04607.pdf

问题

  • 对于跨膜态难样本三元组损失, 在一批中选择P个身份ID,对每个ID随机选择K张可见图像和K张红外图像。这样的采样策略确保每个ID在训练阶段都有足够的和相同数量的图像。

  • 这种情况遇到的问题: 形成三元组的所有样本有可能属于同一模态。就有可能导致在每次迭代中,一种模态被优化得更多,而另一种模态被优化得更少,这种不平衡将使模型难以拟合较少优化的模态。

    模型

  • 网络比较简单,没有增加复杂的模块。首先,引入了随机灰度作为一种数据增强方法,它随机选择具有0.5概率的部分可见图像,将其转换为灰色图像,来减少模态差异。网路bakbone选用resnet50,参数共享。使用1x1卷积层,降低特征图的通道维度。使用平均池化将特征图变为一维向量。最后,使用我们训练的三个损失函数来训练网络(全样本三元组损失、余弦ID损失、全样本中心损失)。

Cross Modality Batch Hard Triplet loss

  • 为了解决上面的问题,有文献提出了在保留(1)的同时,添加一个跨模态三元组损失。添加的这个三元组,anchor来自一个模态,正负样本来自另一个模态。最终的损失包含了全局三元组损失和跨模态三元组损失。

    创新点

1.(1)Unified Batch All Triplet Loss

  • 作者认为与其设计三元组的采样策略,不如把所有样本都用来计算三元组损失。具体的,对于每一个anchor,依次遍历所有正样本和负样本,全部用来形成三元组。最后,再遍历每个样本anchor,对所有的anchor三元组求和。

  • 对于每个anchor,会有2K-1个正样本,2PK-2K个负样本,每个anchor总共2(P-1)K(2K-1)个三元组。这样就考虑了所有的可能情况,不会出现优化不平衡的现象。然而计算复杂度太高,于是作者做了一下改进,提

    (1.1)改进的Unified Batch All Triplet loss。

  • 其中γ是比例因子,m是边际项。S(x, y)计算x和y之间的余弦相似度。与Batch All Triplet loss类似,Unified Batch All Triplet loss也考虑了样本中所有可能的三元组。不同的是,统一批处理全三元组丢失将计算复杂度从O(2(P?1)K(2K?1))降低到O(2(P?1)K + (2K?1))。而且,统一批处理所有三元组损耗用exp(?)代替函数[?]+,使所有三元组都能贡献适当的损失,而不是大于margin的三元组。值得注意的是,与优化欧氏距离的普通三元组损耗不同,统一批处理全三元组损耗优化余弦相似度。

    还是考虑所有样本形成三元组。只是将计算量降到了2(P-1)K + (2K-1)。另外,用exp替换[]+,这样所有的三元组都能造成适当的损失,而不只有大于margin的三元组。γ是比例因子,S是余弦距离。

    • 图解说明

2. Collaborative Optimization with Cosine Softmax Loss

普通计算ID损失:W是FC层参数。pi表示xi被正确分类的概率。yi是xi的类。Wj表示W中的第j列,Wj可以看作是j类的中心。 其中Pi表示正确分类的概率。N为训练样本数,C为类数。yi是xi的标签类。

?Wj表示W中的第j列,Wj可视为j类的中心,因此Softmax损失优化了每个图像向量与其类中心的内积。

问题

在计算ID损失的时候,Softmax loss是计算的向量内积;三元组损失计算的是向量之间的欧氏距离。它们不一致。更糟糕的是,在推理阶段,通常使用L2标准化向量,这意味着不管是向量内积还是欧几里得距离作为推理中的度量函数,它都相当于余弦距离。这与训练过程中使用的度量函数不一致。

为了解决这些问题,作者代替softmax loss,引入了Cosine Softmax loss。S计算余弦距离。

?通过比较,Cosine Softmax loss 和 Softmax loss的区别是,前者优化了样本向量和权重向量之间的余弦距离,而后者优化了向量内积。此外,Cosine Softmax loss增加了一个margin,使属于同一类的点更加集中。

2.1 Batch All Hetero Center Triplet Loss

有文献提出难挖掘的异质中心三元组损失,考虑每个ID中心之间的距离。同ID的两模态特征中心的距离要小于该中心和其他所有中心距离一个margin。

其中vji为批次中第i个人的第j个可见图像,tji为批次中第i个人的第j个红外图像。因此,文明是人的可见形态中心,城市是人的红外形态中心。D(x, y)为向量x和y之间的欧氏距离。如图3a所示,对于每个锚中心,批量硬异质中心三元组损失选择同类但形态不同的中心作为正样本,选择不同类中最硬的中心作为负样本,形成最硬的中心三元组。批量硬异质中心三联体损耗缩短了同一类的模态中心距离,增大了不同类之间的中心距离。

作者也是觉得应该考虑所有样本。所以对此进行改进,提出了Batch All Hetero Center Triplet Loss。vˉ表示L2标准化向量。它考虑了所有的中心三元组,并优化了余弦距离。

?其中ˉvij和ˉtij是L2归一化向量,那么ˉciv和ˉcit是L2归一化向量的中心。S(x, y)计算x和y之间的余弦相似度。我们的批处理所有异质中心三元组损失的公式与统一批处理所有三元组损失的公式相似。如图3b所示,它考虑了所有中心三元组,并优化了余弦距离

图解

?总损失

?在推断阶段,我们使用cos距离作为度量函数:

?实验

参考博客?https://blog.csdn.net/tt_sunshine/article/details/127171541

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-08 20:42:06  更:2022-10-08 20:44:56 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/19 23:49:08-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码