IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 正交匹配追踪算法(OMP)简介与详解 -> 正文阅读

[人工智能]正交匹配追踪算法(OMP)简介与详解

秒懂

匹配追踪算法(MP)

为了了解OMP我们先从MP开始说起。

匹配追踪最早是时频分析的分析工具,目的是要将一已知讯号拆解成由许多被称作为原子讯号的加权总和,而且企图找到与原来讯号最接近的解。

在机器学习领域,我们可以将它抽象为 X ω = Y X\omega=Y Xω=Y,其中 X X X是我们已知的向量, Y Y Y是我们要去拟合或者称为追踪的向量, MP算法的目的就是找到公式中的 ω \omega ω。MP算法采用逐步迭代的方式,每一步寻找到 X X X中与 Y Y Y内积最大的向量,将其从 Y Y Y中剔除(相减)得到 Y ′ Y' Y(被称为残差),这样一步步迭代下去就能找到较优的近似解。

举个例子,我想要使用 x 1 = ( ? 1 , 1 ) x_1=(-1,1) x1?=(?1,1) x 2 = ( 1 , 0 ) x_2=(1,0) x2?=(1,0)两个向量来拟合向量 y = ( 1 , 1 ) y=(1,1) y=(1,1),如果让我们口算,我们可以很容易地计算出 1 x 1 + 2 x 2 = y 1x_1+2x_2=y 1x1?+2x2?=y,那么使用MP算法呢?

  • 第一步迭代:
    计算 x 1 x_1 x1? x 2 x_2 x2? y y y的内积 m 1 = < x 1 , y > = 0 m_1=<x_1,y>=0 m1?=<x1?,y>=0 m 2 = < x 2 , y > = 1 m_2=<x_2,y>=1 m2?=<x2?,y>=1
    比较绝对值发现 x 2 x_2 x2? y y y的影响更大,因此 y ′ = y ? m 2 x 2 = ( 0 , 1 ) y'=y-m_2x_2=(0,1) y=y?m2?x2?=(0,1),记录 ω = ( _ , 1 ) \omega=(\_,1) ω=(_,1)

  • 第二步迭代:
    计算 x 1 x_1 x1? x 2 x_2 x2? y ′ y' y的内积 m 1 = < x 1 , y ′ > = 1 m_1=<x_1,y'>=1 m1?=<x1?,y>=1 m 2 = < x 2 , y ′ > = 0 m_2=<x_2,y'>=0 m2?=<x2?,y>=0
    比较绝对值发现 x 1 x_1 x1? y ′ y' y的影响更大,因此 y ′ ′ = y ′ ? m 1 x 1 = ( 1 , 0 ) y''=y'-m_1x_1=(1,0) y=y?m1?x1?=(1,0),记录 ω = ( 1 , 1 ) \omega=(1,1) ω=(1,1)

  • 第三步迭代:
    计算 x 1 x_1 x1? x 2 x_2 x2? y ′ y' y的内积 m 1 = < x 1 , y ′ ′ > = ? 1 m_1=<x_1,y''>=-1 m1?=<x1?,y>=?1 m 2 = < x 2 , y ′ ′ > = 1 m_2=<x_2,y''>=1 m2?=<x2?,y>=1
    比较绝对值发现 x 1 x_1 x1? x 2 x_2 x2? y ′ y' y的影响一样大,因此随便选一个 y ′ ′ ′ = y ′ ′ ? m 2 x 2 = ( 0 , 0 ) y'''=y''-m_2x_2=(0,0) y=y?m2?x2?=(0,0),记录 ω = ( 1 , 2 ) \omega=(1,2) ω=(1,2),得到正确答案。

but!如果随机选选到了 x 1 x_1 x1?怎么办,这就可能导致出现迭代时间变长、收敛速度变慢甚至死循环等问题。于是引出正交匹配追踪算法。

正交匹配追踪算法

正交匹配追踪算法是匹配追踪算法的升级版,每一步迭代时保证剔除后的 Y ′ Y' Y与被剔除的向量正交,这样之后的迭代就不需要再计算已经剔除掉的向量,极大地减少了时间开销。
例如在上一节的问题中,使用 x 1 = ( ? 1 , 1 ) x_1=(-1,1) x1?=(?1,1) x 2 = ( 1 , 0 ) x_2=(1,0) x2?=(1,0)两个向量来拟合向量 y = ( 1 , 1 ) y=(1,1) y=(1,1)

  • 第一步迭代:
    计算 x 1 x_1 x1? x 2 x_2 x2? y y y的内积 m 1 = < x 1 , y > = 0 m_1=<x_1,y>=0 m1?=<x1?,y>=0 m 2 = < x 2 , y > = 1 m_2=<x_2,y>=1 m2?=<x2?,y>=1
    比较绝对值发现 x 2 x_2 x2? y y y的影响更大,因此 y ′ = y ? k 1 x 2 = ( 1 ? k 1 , 1 ) ?? s . t . ?? y ′ ⊥ x 2 y'=y-k_1x_2=(1-k_1,1)\,\,s.t. \,\,y'\perp x_2 y=y?k1?x2?=(1?k1?,1)s.t.yx2?,解得 k 1 = 2 , y ′ = ( ? 1 , 1 ) k_1=2, y'=(-1,1) k1?=2,y=(?1,1),记录 ω = ( _ , 2 ) \omega=(\_,2) ω=(_,2)

  • 第二步迭代:
    由于正交性,不需要再考虑 x 2 x_2 x2?,因此 y ′ ′ = y ′ ? k 2 x 1 = ( ? 1 ? k 2 , 1 ? k 2 ) ?? s . t . ?? y ′ ⊥ x 1 ∧ y ′ ⊥ x 2 y''=y'-k_2x_1=(-1-k_2,1-k_2)\,\,s.t. \,\,y'\perp x_1 \wedge y'\perp x_2 y=y?k2?x1?=(?1?k2?,1?k2?)s.t.yx1?yx2?,解得 k 2 = 1 k_2=1 k2?=1记录 ω = ( 1 , 1 ) \omega=(1,1) ω=(1,1),得到正确答案。

正交匹配追踪算法的优势可见一斑。

详解

算法流程

简单介绍已经说清楚了,即通过 X ω = Y X\omega=Y Xω=Y中已知的 X X X Y Y Y来求出 ω \omega ω,我们将其拆开来写
ω 1 x 1 + ω 2 x 2 + . . . + ω n x n = y \omega_1x_1+\omega_2x_2 + ...+\omega_nx_n=y ω1?x1?+ω2?x2?+...+ωn?xn?=y

  1. 第一步计算每个向量 x x x y y y的内积,挑选出绝对值最大的设为 x i x_i xi?,令 y ′ = y ? ω i x i y'=y-\omega_ix_i y=y?ωi?xi? ω i \omega_i ωi?满足 y ′ ⊥ x i y'\perp x_i yxi?,将 y y y替换成 y ′ y' y(即令 y = y ′ y=y' y=y)。
  2. 随后,计算除 x i x_i xi?之外每个向量 x x x y y y的内积,挑选出绝对值最大的设为 x j x_j xj?,令 y ′ = y ? ω j x j y'=y-\omega_jx_j y=y?ωj?xj? ω j \omega_j ωj?满足 y ′ ⊥ x j ∧ y ′ ⊥ x i y'\perp x_j\wedge y'\perp x_i yxj?yxi?,将 y y y替换成 y ′ y' y
  3. 重复步骤2,值得注意的是,这里的政教关系需要用施密特正交化方法来计算。
  4. 求出的 ω \omega ω就是OMP算法的解。

代码实现

废话不多说,直接上sklearn

from sklearn import linear_model


def data_generate():
	# 这里随机生成了一些数据
    a = [[i + 1, i - 2, i + 4, i - 3] for i in range(5)]
    a.extend([[i - 1, i - 2, i, i] for i in range(5)])
    b = [sum(i) * 2 + 1 for i in a]
    # b = [[i + random.randint(-10, 10) for _ in range(1)] for i in range(5)]
    # b.extend([[i + random.randint(-10, 10) for _ in range(1)] for i in range(10, 15)])
    return a, b


if __name__ == "__main__":
    x, y = data_generate()
    reg = linear_model.OrthogonalMatchingPursuit()
    # 可以和下面这一行的标准线性回归做一个对比
    # reg = linear_model.LinearRegression()
    reg.fit(x, y)
    for i, j in zip(x, y):
        print(i, j)
    print('---------------')
    # 懒得再构造数据了,使用训练集预测一遍,效果。。。一般,主要是因为数据量太少了。
    # 当数据量增加时,OMP可以超过标准线性回归的效果
    print(reg.predict(x))
    print(reg.score(x, y))

算法优劣

通过上文中的介绍可以发现
OMP算法相较于MP算法收敛快,效率高。
作为压缩感知领域的算法,可以应用在回归问题上,效果还不错。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-03-15 22:31:54  更:2022-03-15 22:34:52 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年1日历 -2025/1/9 15:47:03-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码