赞
踩
为了了解OMP我们先从MP开始说起。
匹配追踪最早是时频分析的分析工具,目的是要将一已知讯号拆解成由许多被称作为原子讯号的加权总和,而且企图找到与原来讯号最接近的解。
在机器学习领域,我们可以将它抽象为 X ω = Y X\omega=Y Xω=Y,其中 X X X是我们已知的向量, Y Y Y是我们要去拟合或者称为追踪的向量, MP算法的目的就是找到公式中的 ω \omega ω。MP算法采用逐步迭代的方式,每一步寻找到 X X X中与 Y Y Y内积最大的向量,将其从 Y Y Y中剔除(相减)得到 Y ′ Y' Y′(被称为残差),这样一步步迭代下去就能找到较优的近似解。
举个例子,我想要使用 x 1 = ( − 1 , 1 ) x_1=(-1,1) x1=(−1,1)和 x 2 = ( 1 , 0 ) x_2=(1,0) x2=(1,0)两个向量来拟合向量 y = ( 1 , 1 ) y=(1,1) y=(1,1),如果让我们口算,我们可以很容易地计算出 1 x 1 + 2 x 2 = y 1x_1+2x_2=y 1x1+2x2=y,那么使用MP算法呢?
第一步迭代:
计算
x
1
x_1
x1和
x
2
x_2
x2与
y
y
y的内积
m
1
=
<
x
1
,
y
>
=
0
m_1=<x_1,y>=0
m1=<x1,y>=0,
m
2
=
<
x
2
,
y
>
=
1
m_2=<x_2,y>=1
m2=<x2,y>=1
比较绝对值发现
x
2
x_2
x2对
y
y
y的影响更大,因此
y
′
=
y
−
m
2
x
2
=
(
0
,
1
)
y'=y-m_2x_2=(0,1)
y′=y−m2x2=(0,1),记录
ω
=
(
_
,
1
)
\omega=(\_,1)
ω=(_,1)。
第二步迭代:
计算
x
1
x_1
x1和
x
2
x_2
x2与
y
′
y'
y′的内积
m
1
=
<
x
1
,
y
′
>
=
1
m_1=<x_1,y'>=1
m1=<x1,y′>=1,
m
2
=
<
x
2
,
y
′
>
=
0
m_2=<x_2,y'>=0
m2=<x2,y′>=0
比较绝对值发现
x
1
x_1
x1对
y
′
y'
y′的影响更大,因此
y
′
′
=
y
′
−
m
1
x
1
=
(
1
,
0
)
y''=y'-m_1x_1=(1,0)
y′′=y′−m1x1=(1,0),记录
ω
=
(
1
,
1
)
\omega=(1,1)
ω=(1,1)。
第三步迭代:
计算
x
1
x_1
x1和
x
2
x_2
x2与
y
′
y'
y′的内积
m
1
=
<
x
1
,
y
′
′
>
=
−
1
m_1=<x_1,y''>=-1
m1=<x1,y′′>=−1,
m
2
=
<
x
2
,
y
′
′
>
=
1
m_2=<x_2,y''>=1
m2=<x2,y′′>=1
比较绝对值发现
x
1
x_1
x1与
x
2
x_2
x2对
y
′
y'
y′的影响一样大,因此随便选一个
y
′
′
′
=
y
′
′
−
m
2
x
2
=
(
0
,
0
)
y'''=y''-m_2x_2=(0,0)
y′′′=y′′−m2x2=(0,0),记录
ω
=
(
1
,
2
)
\omega=(1,2)
ω=(1,2),得到正确答案。
but!如果随机选选到了 x 1 x_1 x1怎么办,这就可能导致出现迭代时间变长、收敛速度变慢甚至死循环等问题。于是引出正交匹配追踪算法。
正交匹配追踪算法是匹配追踪算法的升级版,每一步迭代时保证剔除后的
Y
′
Y'
Y′与被剔除的向量正交,这样之后的迭代就不需要再计算已经剔除掉的向量,极大地减少了时间开销。
例如在上一节的问题中,使用
x
1
=
(
−
1
,
1
)
x_1=(-1,1)
x1=(−1,1)和
x
2
=
(
1
,
0
)
x_2=(1,0)
x2=(1,0)两个向量来拟合向量
y
=
(
1
,
1
)
y=(1,1)
y=(1,1)
第一步迭代:
计算
x
1
x_1
x1和
x
2
x_2
x2与
y
y
y的内积
m
1
=
<
x
1
,
y
>
=
0
m_1=<x_1,y>=0
m1=<x1,y>=0,
m
2
=
<
x
2
,
y
>
=
1
m_2=<x_2,y>=1
m2=<x2,y>=1
比较绝对值发现
x
2
x_2
x2对
y
y
y的影响更大,因此
y
′
=
y
−
k
1
x
2
=
(
1
−
k
1
,
1
)
s
.
t
.
y
′
⊥
x
2
y'=y-k_1x_2=(1-k_1,1)\,\,s.t. \,\,y'\perp x_2
y′=y−k1x2=(1−k1,1)s.t.y′⊥x2,解得
k
1
=
2
,
y
′
=
(
−
1
,
1
)
k_1=2, y'=(-1,1)
k1=2,y′=(−1,1),记录
ω
=
(
_
,
2
)
\omega=(\_,2)
ω=(_,2)。
第二步迭代:
由于正交性,不需要再考虑
x
2
x_2
x2,因此
y
′
′
=
y
′
−
k
2
x
1
=
(
−
1
−
k
2
,
1
−
k
2
)
s
.
t
.
y
′
⊥
x
1
∧
y
′
⊥
x
2
y''=y'-k_2x_1=(-1-k_2,1-k_2)\,\,s.t. \,\,y'\perp x_1 \wedge y'\perp x_2
y′′=y′−k2x1=(−1−k2,1−k2)s.t.y′⊥x1∧y′⊥x2,解得
k
2
=
1
k_2=1
k2=1记录
ω
=
(
1
,
1
)
\omega=(1,1)
ω=(1,1),得到正确答案。
正交匹配追踪算法的优势可见一斑。
简单介绍已经说清楚了,即通过
X
ω
=
Y
X\omega=Y
Xω=Y中已知的
X
X
X和
Y
Y
Y来求出
ω
\omega
ω,我们将其拆开来写
ω
1
x
1
+
ω
2
x
2
+
.
.
.
+
ω
n
x
n
=
y
\omega_1x_1+\omega_2x_2 + ...+\omega_nx_n=y
ω1x1+ω2x2+...+ωnxn=y
废话不多说,直接上sklearn
from sklearn import linear_model def data_generate(): # 这里随机生成了一些数据 a = [[i + 1, i - 2, i + 4, i - 3] for i in range(5)] a.extend([[i - 1, i - 2, i, i] for i in range(5)]) b = [sum(i) * 2 + 1 for i in a] # b = [[i + random.randint(-10, 10) for _ in range(1)] for i in range(5)] # b.extend([[i + random.randint(-10, 10) for _ in range(1)] for i in range(10, 15)]) return a, b if __name__ == "__main__": x, y = data_generate() reg = linear_model.OrthogonalMatchingPursuit() # 可以和下面这一行的标准线性回归做一个对比 # reg = linear_model.LinearRegression() reg.fit(x, y) for i, j in zip(x, y): print(i, j) print('---------------') # 懒得再构造数据了,使用训练集预测一遍,效果。。。一般,主要是因为数据量太少了。 # 当数据量增加时,OMP可以超过标准线性回归的效果 print(reg.predict(x)) print(reg.score(x, y))
通过上文中的介绍可以发现
OMP算法相较于MP算法收敛快,效率高。
作为压缩感知领域的算法,可以应用在回归问题上,效果还不错。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。