秒懂
匹配追踪算法(MP)
为了了解OMP我们先从MP开始说起。
匹配追踪最早是时频分析的分析工具,目的是要将一已知讯号拆解成由许多被称作为原子讯号的加权总和,而且企图找到与原来讯号最接近的解。
在机器学习领域,我们可以将它抽象为
X
ω
=
Y
X\omega=Y
Xω=Y,其中
X
X
X是我们已知的向量,
Y
Y
Y是我们要去拟合或者称为追踪的向量, MP算法的目的就是找到公式中的
ω
\omega
ω。MP算法采用逐步迭代的方式,每一步寻找到
X
X
X中与
Y
Y
Y内积最大的向量,将其从
Y
Y
Y中剔除(相减)得到
Y
′
Y'
Y′(被称为残差),这样一步步迭代下去就能找到较优的近似解。
举个例子,我想要使用
x
1
=
(
?
1
,
1
)
x_1=(-1,1)
x1?=(?1,1)和
x
2
=
(
1
,
0
)
x_2=(1,0)
x2?=(1,0)两个向量来拟合向量
y
=
(
1
,
1
)
y=(1,1)
y=(1,1),如果让我们口算,我们可以很容易地计算出
1
x
1
+
2
x
2
=
y
1x_1+2x_2=y
1x1?+2x2?=y,那么使用MP算法呢?
-
第一步迭代: 计算
x
1
x_1
x1?和
x
2
x_2
x2?与
y
y
y的内积
m
1
=
<
x
1
,
y
>
=
0
m_1=<x_1,y>=0
m1?=<x1?,y>=0,
m
2
=
<
x
2
,
y
>
=
1
m_2=<x_2,y>=1
m2?=<x2?,y>=1 比较绝对值发现
x
2
x_2
x2?对
y
y
y的影响更大,因此
y
′
=
y
?
m
2
x
2
=
(
0
,
1
)
y'=y-m_2x_2=(0,1)
y′=y?m2?x2?=(0,1),记录
ω
=
(
_
,
1
)
\omega=(\_,1)
ω=(_,1)。 -
第二步迭代: 计算
x
1
x_1
x1?和
x
2
x_2
x2?与
y
′
y'
y′的内积
m
1
=
<
x
1
,
y
′
>
=
1
m_1=<x_1,y'>=1
m1?=<x1?,y′>=1,
m
2
=
<
x
2
,
y
′
>
=
0
m_2=<x_2,y'>=0
m2?=<x2?,y′>=0 比较绝对值发现
x
1
x_1
x1?对
y
′
y'
y′的影响更大,因此
y
′
′
=
y
′
?
m
1
x
1
=
(
1
,
0
)
y''=y'-m_1x_1=(1,0)
y′′=y′?m1?x1?=(1,0),记录
ω
=
(
1
,
1
)
\omega=(1,1)
ω=(1,1)。 -
第三步迭代: 计算
x
1
x_1
x1?和
x
2
x_2
x2?与
y
′
y'
y′的内积
m
1
=
<
x
1
,
y
′
′
>
=
?
1
m_1=<x_1,y''>=-1
m1?=<x1?,y′′>=?1,
m
2
=
<
x
2
,
y
′
′
>
=
1
m_2=<x_2,y''>=1
m2?=<x2?,y′′>=1 比较绝对值发现
x
1
x_1
x1?与
x
2
x_2
x2?对
y
′
y'
y′的影响一样大,因此随便选一个
y
′
′
′
=
y
′
′
?
m
2
x
2
=
(
0
,
0
)
y'''=y''-m_2x_2=(0,0)
y′′′=y′′?m2?x2?=(0,0),记录
ω
=
(
1
,
2
)
\omega=(1,2)
ω=(1,2),得到正确答案。
but!如果随机选选到了
x
1
x_1
x1?怎么办,这就可能导致出现迭代时间变长、收敛速度变慢甚至死循环等问题。于是引出正交匹配追踪算法。
正交匹配追踪算法
正交匹配追踪算法是匹配追踪算法的升级版,每一步迭代时保证剔除后的
Y
′
Y'
Y′与被剔除的向量正交,这样之后的迭代就不需要再计算已经剔除掉的向量,极大地减少了时间开销。 例如在上一节的问题中,使用
x
1
=
(
?
1
,
1
)
x_1=(-1,1)
x1?=(?1,1)和
x
2
=
(
1
,
0
)
x_2=(1,0)
x2?=(1,0)两个向量来拟合向量
y
=
(
1
,
1
)
y=(1,1)
y=(1,1)
-
第一步迭代: 计算
x
1
x_1
x1?和
x
2
x_2
x2?与
y
y
y的内积
m
1
=
<
x
1
,
y
>
=
0
m_1=<x_1,y>=0
m1?=<x1?,y>=0,
m
2
=
<
x
2
,
y
>
=
1
m_2=<x_2,y>=1
m2?=<x2?,y>=1 比较绝对值发现
x
2
x_2
x2?对
y
y
y的影响更大,因此
y
′
=
y
?
k
1
x
2
=
(
1
?
k
1
,
1
)
??
s
.
t
.
??
y
′
⊥
x
2
y'=y-k_1x_2=(1-k_1,1)\,\,s.t. \,\,y'\perp x_2
y′=y?k1?x2?=(1?k1?,1)s.t.y′⊥x2?,解得
k
1
=
2
,
y
′
=
(
?
1
,
1
)
k_1=2, y'=(-1,1)
k1?=2,y′=(?1,1),记录
ω
=
(
_
,
2
)
\omega=(\_,2)
ω=(_,2)。 -
第二步迭代: 由于正交性,不需要再考虑
x
2
x_2
x2?,因此
y
′
′
=
y
′
?
k
2
x
1
=
(
?
1
?
k
2
,
1
?
k
2
)
??
s
.
t
.
??
y
′
⊥
x
1
∧
y
′
⊥
x
2
y''=y'-k_2x_1=(-1-k_2,1-k_2)\,\,s.t. \,\,y'\perp x_1 \wedge y'\perp x_2
y′′=y′?k2?x1?=(?1?k2?,1?k2?)s.t.y′⊥x1?∧y′⊥x2?,解得
k
2
=
1
k_2=1
k2?=1记录
ω
=
(
1
,
1
)
\omega=(1,1)
ω=(1,1),得到正确答案。
正交匹配追踪算法的优势可见一斑。
详解
算法流程
简单介绍已经说清楚了,即通过
X
ω
=
Y
X\omega=Y
Xω=Y中已知的
X
X
X和
Y
Y
Y来求出
ω
\omega
ω,我们将其拆开来写
ω
1
x
1
+
ω
2
x
2
+
.
.
.
+
ω
n
x
n
=
y
\omega_1x_1+\omega_2x_2 + ...+\omega_nx_n=y
ω1?x1?+ω2?x2?+...+ωn?xn?=y
- 第一步计算每个向量
x
x
x与
y
y
y的内积,挑选出绝对值最大的设为
x
i
x_i
xi?,令
y
′
=
y
?
ω
i
x
i
y'=y-\omega_ix_i
y′=y?ωi?xi?,
ω
i
\omega_i
ωi?满足
y
′
⊥
x
i
y'\perp x_i
y′⊥xi?,将
y
y
y替换成
y
′
y'
y′(即令
y
=
y
′
y=y'
y=y′)。
- 随后,计算除
x
i
x_i
xi?之外每个向量
x
x
x与
y
y
y的内积,挑选出绝对值最大的设为
x
j
x_j
xj?,令
y
′
=
y
?
ω
j
x
j
y'=y-\omega_jx_j
y′=y?ωj?xj?,
ω
j
\omega_j
ωj?满足
y
′
⊥
x
j
∧
y
′
⊥
x
i
y'\perp x_j\wedge y'\perp x_i
y′⊥xj?∧y′⊥xi?,将
y
y
y替换成
y
′
y'
y′。
- 重复步骤2,值得注意的是,这里的政教关系需要用施密特正交化方法来计算。
- 求出的
ω
\omega
ω就是OMP算法的解。
代码实现
废话不多说,直接上sklearn
from sklearn import linear_model
def data_generate():
a = [[i + 1, i - 2, i + 4, i - 3] for i in range(5)]
a.extend([[i - 1, i - 2, i, i] for i in range(5)])
b = [sum(i) * 2 + 1 for i in a]
return a, b
if __name__ == "__main__":
x, y = data_generate()
reg = linear_model.OrthogonalMatchingPursuit()
reg.fit(x, y)
for i, j in zip(x, y):
print(i, j)
print('---------------')
print(reg.predict(x))
print(reg.score(x, y))
算法优劣
通过上文中的介绍可以发现 OMP算法相较于MP算法收敛快,效率高。 作为压缩感知领域的算法,可以应用在回归问题上,效果还不错。
|