赞
踩
记录OMP算法的学习过程。
对于非齐次线性方程组
A
x
=
b
Ax = b
Ax=b式中
b
∈
R
m
,
A
∈
R
m
∗
n
,
x
∈
R
m
b \in R^m,A \in R^{m*n},x \in R^m
b∈Rm,A∈Rm∗n,x∈Rm。
一般如果我们考虑
A
,
x
A,x
A,x已知,那么求
b
b
b是一个很简单的问题。
这个问题的逆问题为,
b
,
A
b,A
b,A已知,去求
x
x
x。
当
n
>
>
m
n>>m
n>>m时,该方程有无穷多解,如果我们想得到唯一解,就需要限定
x
x
x,实际上在压缩感知领域,就是限定
x
x
x是稀疏的,也就是
x
x
x中有很多0,在这种情况下去求解
x
x
x,其中
k
k
k为
x
x
x的稀疏度,实际上就是
x
x
x中非0的个数。
现在假设我们已知
A
,
b
A,b
A,b,想从中恢复出
x
x
x,显然我们需要充分利用
x
x
x是稀疏的这个事实,由线性代数知识显然可以知道
b
b
b其实是矩阵
A
A
A的列向量的线性组合,也就是
x
x
x作为权重与
A
A
A的列向量加权求和后得到的结果,由于
x
x
x是稀疏的,那么显然可以发现一个事实,
A
A
A中仅仅有很少的列向量对
b
b
b做出了贡献,我们的目的就是找出这些对
b
b
b贡献较大的列向量,与此同时,根据列向量在
A
A
A中的位置,可以判断出
x
x
x中非零元素的位置,这就是OMP算法的基本思想。
那么关键是如何刻画
A
A
A中列向量对
b
b
b的贡献,在欧几里和空间中,我们常常用内积去定义两个向量的距离,实际上我们可以将
b
b
b往
A
A
A中列向量方向去投影,由此判断某个列向量对其的贡献。公式化表达
c
o
n
t
r
i
b
u
t
i
o
n
(
b
,
a
i
)
=
∣
<
b
,
a
i
>
∣
a
i
∣
∣
contribution(b,a_i) =| \frac{<b,a_i>}{|a_i|}|
contribution(b,ai)=∣∣ai∣<b,ai>∣式中
a
i
a_i
ai为
A
A
A的第
i
i
i个列向量,实际上在考虑投影时回出现正负号问题,我们只用考虑贡献的大小,而不去考虑方向,所以加上了绝对值。(<,>为内积运算)
实际上如果我们事先将
A
A
A矩阵的列向量单位化,那么公式可以简化为
c
o
n
t
r
i
b
u
t
i
o
n
(
b
,
a
i
)
=
∣
<
b
,
a
i
>
∣
contribution(b,a_i) =|<b,a_i>|
contribution(b,ai)=∣<b,ai>∣
实际上给定稀疏度 k k k,我们只需要迭代 k k k次算法就可以求出 A A A中 k k k个贡献最大的列向量,以及 x x x中 k k k个不为0的位置。
需要注意的是有个残差的更新过程,实际上原始残差就是
y
y
y,每一次找到一个和他相关的列向量后,就得到了这部分的信息,所以要减去这部分信息,剩余的信息再去和列向量相关。
clear; clc; m = 64; n = 256; % n>>m; CN = []; A = randn(m,n); x = zeros(n,1); x(1) =0.4; x(40) =0.6; x(32) = 0.8; % 构造稀疏向量x k = 3; % 代表稀疏度 b = A * x; %% initialization r = b; % 初始残差 Cn = []; % 用于记录存放的列的序号 An = []; % 用于存放列的列向量 %% Normalization abs_colmn = sqrt(sum(A.^2)); % 每列的模长 abs_matrix = repmat(abs_colmn,m,1); norm_A = A./abs_matrix; % disp(sum(norm_A.^2)) %% 迭代求解 for ii = 1:k product = norm_A' * r; % 实际上就是A的每个列向量与r相乘 [val,index] = max(abs(product)); Cn = [Cn index]; An = [An norm_A(:,index)]; xk = inv(An' * An) * An' * b; % 最小二乘解 r = b - An * xk; end x_recovery = zeros(n,1); x_recovery(Cn) = xk; figure; subplot(2,1,1) stem(x); title('origin signal') subplot(2,1,2) stem(x_recovery ./ (abs_colmn')); % 反归一化 title('recovery signal')
实验结果
可见恢复了原始信号
记录学习过程~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。