IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 目标跟踪(1)——MOSSE -> 正文阅读

[人工智能]目标跟踪(1)——MOSSE

引言

??MOSSE是在Visual Object Tracking using Adaptive Correlation Filters这篇文章中提出来的,MOSSE的全称是Minimum Output Sum of Squared Error,令平方误差和最小来计算得到滤波器。

算法流程

??相关滤波很容易理解,一帧图像经过相关运算(滤波器)之后得到的响应图中,响应最大的位置就是目标所在的位置。这个相关计算的模板也就是滤波器,它滤除了和它不相关的内容。

相关运算和卷积运算

??相关Correlation和卷积Convolution有着紧密的联系。以一维的情况考虑。 f [ n ] f[n] f[n]是原始序列, h [ n ] h[n] h[n]是滤波器,在它们都是实数的情况下,相关运算结果 g [ n ] g[n] g[n]可以表示为:
g [ n ] = ∑ τ = ? ∞ ∞ f [ τ ] h [ n + τ ] g[n] = \sum^{\infty}_{\tau=-\infty}f[\tau]h[n+\tau] g[n]=τ=??f[τ]h[n+τ]
??两者卷积的结果为:
f [ n ] ? h [ n ] = ∑ τ = ? ∞ ∞ f [ τ ] h [ τ ? n ] f[n]\ast h [n] = \sum^{\infty}_{\tau=-\infty}f[\tau]h[\tau-n] f[n]?h[n]=τ=??f[τ]h[τ?n]
??可以观察到,相关和卷积的计算非常相似,我们如果让 f [ n ] f[n] f[n] h [ ? n ] h[-n] h[?n]卷积,那就能得到相关计算的结果了。有人可能会问了 h [ n ] h[n] h[n]可以理解,但是 h [ ? n ] h[-n] h[?n]的话索引就小于0了,是什么呀?我们先不管这个,先定性地再理解一下卷积和相关运算的区别。在一维的情况下,相关运算就像是把一条线段在另一条线段上拖动,每次两条线段重合区域的长度就是运算结果;卷积运算则是仅仅多了把一条线段反转的步骤,同样也是拖动然后看重合的长度。这样我们就好理解了,这个 h [ ? n ] h[-n] h[?n]中的负号只是起到了序列前后反转的作用。
g [ n ] = f [ n ] ? h [ ? n ] g[n] =f[n]\ast h [-n] g[n]=f[n]?h[?n]
??那么我们就可以把相关运算表示成上面的卷积运算。很多情况下,如果 h [ n ] h[n] h[n]是一个对称的序列,那么卷积和相关运算得到的结果就是一样的。
??为了简化计算,时域的卷积转化为频域的乘积,我们用DFT可以由 f [ n ] f[n] f[n]计算得到 F [ k ] F[k] F[k],下面是 h [ n ] h[n] h[n]的DFT:
H [ k ] = ∑ n = 0 N ? 1 h [ n ] e ? j 2 π k n N H[k]=\sum^{N-1}_{n=0}{h[n]e^{-j2\pi\frac{kn}{N}}} H[k]=n=0N?1?h[n]e?j2πNkn?
??而 h [ ? n ] h[-n] h[?n]经过DFT之后得到的是什么呢?因为一个序列就只有0到N-1的索引,这负的索引是什么呢?为此我又回顾了一遍DFT,我看的主要是奥本海姆的《离散时间信号处理》。书里讲的DFT和DFS非常像,确实非常像!我自己的理解是:DFS和传统意义的傅立叶变换更接近,它实现的是离散周期序列与离散周期序列之间的转换(因为存在“周期对离散”,“非周期对连续”这样的对应关系)。而DFT则是截取了DFS的一个周期的序列来表示,可以说只是一种表示方法,在处理的时候要注意它固有的周期性。
在这里插入图片描述
??举个例子, x [ n ] x[n] x[n]是长度为4的序列, x ~ [ n ] \tilde x[n] x~[n]是周期延拓后的序列, x ~ [ ? n ] \tilde x[-n] x~[?n]是翻转后的序列, x [ ? n ] x[-n] x[?n]是从翻转后的序列中提取一个周期的序列。
∑ n = 0 N ? 1 h [ ? n ] e ? j 2 π k n N = h [ 0 ] + ∑ n = 1 N ? 1 h [ N ? n ] e ? j 2 π k n N \sum^{N-1}_{n=0}{h[-n]e^{-j2\pi\frac{kn}{N}}}=h[0]+ \sum^{N-1}_{n=1}{h[N-n]e^{-j2\pi\frac{kn}{N}}} n=0N?1?h[?n]e?j2πNkn?=h[0]+n=1N?1?h[N?n]e?j2πNkn?
??令 l = N ? n l=N-n l=N?n,则 n = N ? l n=N-l n=N?l,代入上式得:
h [ 0 ] + ∑ l = 1 N ? 1 h [ l ] e ? j 2 π k ( N ? l ) N = h [ 0 ] + ∑ l = 1 N ? 1 h [ l ] e j 2 π k l N = ∑ l = 0 N ? 1 h [ l ] e j 2 π k l N = H ? [ k ] h[0]+ \sum^{N-1}_{l=1}{h[l]e^{-j2\pi\frac{k(N-l)}{N}}}=h[0]+ \sum^{N-1}_{l=1}{h[l]e^{j2\pi\frac{kl}{N}}}= \sum^{N-1}_{l=0}{h[l]e^{j2\pi\frac{kl}{N}}}=H^*[k] h[0]+l=1N?1?h[l]e?j2πNk(N?l)?=h[0]+l=1N?1?h[l]ej2πNkl?=l=0N?1?h[l]ej2πNkl?=H?[k]
??到这里我们就有了 f [ n ] f[n] f[n] h [ ? n ] h[-n] h[?n]的DFT,它们俩的卷积可以用乘积表示,我们把 g [ n ] g[n] g[n]的DFT结果记为 G [ k ] G[k] G[k],则:
G [ k ] = F [ k ] ⊙ H ? [ k ] G[k] = F[k]\odot H^*[k] G[k]=F[k]H?[k]

MOSSE算法

??上面的式子再推广到二维的情况也一样是成立的, ⊙ \odot 表示二维矩阵 F F F H ? H^* H?的对应元素相乘。
G = F ⊙ H ? G = F\odot H^* G=FH?
??我们的目标是求 H ? H^* H? F F F是输入的图像, G G G是输出的响应。这个响应需要我们自己设计。目标经过滤波器后,目标所在位置的响应最大,当目标在图像中央时,我们可以把这个响应设定为峰值位置在图像中央的二维高斯函数。
??如果只有一幅训练图片的话,这就已经能算出来了, H ? = G F H^*=\frac{G}{F} H?=FG?(这里的除法指的是对应元素相除),但是一般不只一幅图,所以要求一个最优的 H ? H^* H?。为此论文中提出的准则是使每幅图计算的结果和高斯模板之间的平方误差之和最小,用公式表示就是:
min ? H ? ∑ i ∣ F i ⊙ H ? ? G i ∣ 2 \mathop {\min }\limits_{{H^*}} \sum\limits_i {{{\left| {{F_i} \odot {H^*} - {G_i}} \right|}^2}} H?min?i?Fi?H??Gi?2
??接下来就是想办法求这个最优化问题了,可以看到它类似一个一元二次函数,但这里又都是复数运算,所以还是有点不同。求解 H ? H^* H?可以分解为求解它的每一个元素。对于 w w w行, v v v列的元素,有:
min ? H ? ∑ i ∣ F i w v ⊙ H w v ? ? G i w v ∣ 2 \mathop {\min }\limits_{{H^*}} \sum\limits_i {{{\left| {{F_{iwv}} \odot {H^*_{wv}} - {G_{iwv}}} \right|}^2}} H?min?i?Fiwv?Hwv???Giwv?2
??这就是标量运算了,我们先看 i = 1 i=1 i=1的情况。
min ? H ? ∣ F w v H ? w v ? G w v ∣ = min ? H ? ( F w v H ? w v ? G w v ) ( F w v H ? w v ? G w v ) ? = min ? H ? F w v F w v ? H w v H ? w v ? G w v F w v ? H w v ? G w v ? F w v H ? w v ? G w v G ? w v \begin{array}{l} \mathop {\min }\limits_{{H^*}} \left| {{F_{wv}}{H^*}_{wv} - {G_{wv}}} \right|\\ = \mathop {\min }\limits_{{H^*}} \left( {{F_{wv}}{H^*}_{wv} - {G_{wv}}} \right){\left( {{F_{wv}}{H^*}_{wv} - {G_{wv}}} \right)^*}\\ = \mathop {\min }\limits_{{H^*}} {F_{wv}}{F_{wv}}^*{H_{wv}}{H^*}_{wv} - {G_{wv}}{F_{wv}}^*{H_{wv}} - {G_{wv}}^*{F_{wv}}{H^*}_{wv} - {G_{wv}}{G^*}_{wv} \end{array} H?min?Fwv?H?wv??Gwv?=H?min?(Fwv?H?wv??Gwv?)(Fwv?H?wv??Gwv?)?=H?min?Fwv?Fwv??Hwv?H?wv??Gwv?Fwv??Hwv??Gwv??Fwv?H?wv??Gwv?G?wv??
??求极值要涉及对复数的变量求导,有人提出了Wirtinger导数,其中 z = x + j y z=x+jy z=x+jy
? ? z = 1 2 [ ? ? x ? j ? ? y ] ? ? z ? = 1 2 [ ? ? x + j ? ? y ] \frac{\partial }{{\partial z}} = \frac{1}{2}\left[ {\frac{\partial }{{\partial x}} - j\frac{\partial }{{\partial y}}} \right]\\ \frac{\partial }{{\partial {z^*}}} = \frac{1}{2}\left[ {\frac{\partial }{{\partial x}} + j\frac{\partial }{{\partial y}}} \right] ?z??=21?[?x???j?y??]?z???=21?[?x??+j?y??]
??根据上面的式子可以计算得到:
? ? z z ? = ? ? z ? z = 0 \frac{\partial }{{\partial z}}{z^*} = \frac{\partial }{{\partial {z^*}}}z = 0 ?z??z?=?z???z=0
??据此可以知道 H w v H_{wv} Hwv?在对 H w v ? H_{wv}^* Hwv??求导的时候可以看作常数。因此对目标函数求导,并令导数为0可得:
? ? H w v ? ( F w v F w v ? H w v H ? w v ? G w v F w v ? H w v ? G w v ? F w v H ? w v ? G w v G ? w v ) = F w v F w v ? H w v ? G w v ? F w v = 0 \begin{array}{l} \frac{\partial }{{\partial {H^*_{wv}}}}\left( {{F_{wv}}{F_{wv}}^*{H_{wv}}{H^*}_{wv} - {G_{wv}}{F_{wv}}^*{H_{wv}} - {G_{wv}}^*{F_{wv}}{H^*}_{wv} - {G_{wv}}{G^*}_{wv}} \right)\\ = {F_{wv}}{F_{wv}}^*{H_{wv}} - {G_{wv}}^*{F_{wv}} = 0 \end{array} ?Hwv????(Fwv?Fwv??Hwv?H?wv??Gwv?Fwv??Hwv??Gwv??Fwv?H?wv??Gwv?G?wv?)=Fwv?Fwv??Hwv??Gwv??Fwv?=0?
H w v = G w v ? F w v F w v F w v ? , H w v ? = G w v F w v ? F w v F w v ? {H_{wv}} = \frac{{{G_{wv}}^*{F_{wv}}}}{{{F_{wv}}{F_{wv}}^*}}, {H_{wv}}^* = \frac{{{G_{wv}}{F_{wv}}^*}}{{{F_{wv}}{F_{wv}}^*}} Hwv?=Fwv?Fwv??Gwv??Fwv??,Hwv??=Fwv?Fwv??Gwv?Fwv???
??再推广到 i > 1 i>1 i>1的情况:
H ? = ∑ i G i ⊙ F i ? ∑ i F i ⊙ F i ? {H^*} = \frac{{\sum\nolimits_i {{G_i} \odot {F_i}^*} }}{{\sum\nolimits_i {{F_i} \odot {F_i}^*} }} H?=i?Fi?Fi??i?Gi?Fi???
??最后引入了学习率 η \eta η来更新 H ? H^* H?
H n ? = A n B n A n = η G n ⊙ F n ? + ( 1 ? η ) A n ? 1 B n = η F n ⊙ F n ? + ( 1 ? η ) B n ? 1 \begin{array}{l} {H_n}^* = \frac{{{A_n}}}{{{B_n}}}\\ {A_n} = \eta {G_n} \odot {F_n}^* + (1 - \eta ){A_{n - 1}}\\ {B_n} = \eta {F_n} \odot {F_n}^* + (1 - \eta ){B_{n - 1}} \end{array} Hn??=Bn?An??An?=ηGn?Fn??+(1?η)An?1?Bn?=ηFn?Fn??+(1?η)Bn?1??
??其中 n = 1 , 2 , 3... n=1,2,3... n=1,2,3...代表测试图片的帧数。 A 0 = ∑ i G i ⊙ F i ? A_0=\sum\nolimits_i {{G_i} \odot {F_i}^*} A0?=i?Gi?Fi??, B 0 = ∑ i F i ⊙ F i ? B_0=\sum\nolimits_i {{F_i} \odot {F_i}^*} B0?=i?Fi?Fi??,实践中发现, η = 0.125 \eta=0.125 η=0.125效果较好。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-09-29 10:15:46  更:2021-09-29 10:18:02 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 12:40:20-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码