冯玮(wfeng@zju.edu.cn)
引言
由阵列信号做波束形成处理,可以估计信道的到达角度(direction-of-arrival, DOA)。
采用压缩感知方法(compressive sensing, CS)与波束形成相结合,目的在于提高对DOA的分辨能力。压缩感知方法利用的是信号自身的稀疏特性,能够使用少量基本信号的线性组合表示一目标信号,以低于奈奎斯特采样率对信号进行采样。然后通过解凸优化问题从这些较少的采样中恢复或重构原始信号。
压缩感知波束形成方法相比传统方法,具有更高的DOA分辨力。但是该方法的性能还与许多因素相关,比如接收信号的相关性、单个片段或者多个片段信号、接收阵的结构、阵元的间距等。
压缩感知方法
可压缩信号向量${\bf x}_{M \times 1}$和压缩后信号向量${\mathbf y}_{N \times 1}$具有如下线性关系
$$
\bf{y} = \bf{A} \bf{x},
$$
其中$\bf{A}=\bf{\Psi} \bf{\Phi}$为字典矩阵,包含感知矩阵${\bf \Psi}_{M \times N}$和表示矩阵${\bf\Phi}_{N \times N}$两部分组成,并且$M < N$,${\mathbf y}$实现了对${\mathbf x}$的稀疏表示。若$\bf{A}$满足约束等距条件,则可由${\mathbf y}$重构${\mathbf x}$。
Xenaki et al. 在压缩感知的框架下,详细地探讨了DOA估计问题 [1]。文中指出应用压缩感知方法求解欠定问题时依赖两个条件,一是需要精确掌握信号的稀疏性,二是感知基与表示基要足够不相关。其次,该文介绍了压缩感知和凸优化的基本原理,采用 cvx 工具包计算优化目标函数。
Gerstoft et al.研究了针对针对多个测量数据的压缩感知波束形成方法,分别采用了LASSO(least absolute shrinkage and selection operator)[2]和稀疏贝叶斯学习方法(sparse Bayesian learning, SBL)[4]进行DOA估计。针对LASSO方法提出正则化参数$\mu$的选择方式。
DOA估计
Xenaki et al. 将DOA估计常用的方法进行了对比,包括CBF, MVDR, MUSIC和CS方法 [1]。
存在的问题
Xenaki et al. 探讨了压缩感知波束形成方法中存在的一些问题 [1]。首先是基失配,例如信号的实际DOA不在DOA感知基的离散点上,那么与DOA稀疏性假设存在矛盾,估计性能会显著下降。其次,感知矩阵的列之间要保证足够的不相关性,通过计算列之间的相关系数或者约束等距性来进行评估。文中评估了角度估计偏差、角度分辨力与列相关性的关联性。最后,该文研究了稀疏性与噪声水平之间的关系,提出了对优化函数进行迭代对角线加载的方式来降噪,并与其他DOA估计方法进行了性能对比。
Xenaki et al. 采用DOA连续的表达形式,引入原子范数来构建优化函数,用于克服基失配问题[3]。
参考文献
- 1.A. Xenaki, P. Gerstoft, and K. Mosegaard, “Compressive beamforming,” The Journal of the Acoustical Society of America, vol. 136, no. 1, pp. 260–271, Jul. 2014. DOI ↩
- 2.P. Gerstoft, A. Xenaki, and C. F. Mecklenbräuker, “Multiple and single snapshot compressive beamforming,” The Journal of the Acoustical Society of America, vol. 138, no. 4, pp. 2003–2014, Oct. 2015. DOI ↩
- 3.A. Xenaki and P. Gerstoft, “Grid-free compressive beamforming,” The Journal of the Acoustical Society of America, vol. 137, no. 4, pp. 1923–1935, Apr. 2015. DOI ↩
- 4.P. Gerstoft, C. F. Mecklenbräuker, A. Xenaki, and S. Nannuru, “Multisnapshot Sparse Bayesian Learning for DOA,” IEEE Signal Processing Letters, vol. 23, no. 10, pp. 1469–1473, Oct. 2016. DOI ↩