留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

面向压缩感知的基于相关性字典学习算法

叶娅兰 何文文 程云飞 侯孟书 李云霞

叶娅兰, 何文文, 程云飞, 侯孟书, 李云霞. 面向压缩感知的基于相关性字典学习算法[J]. 电子科技大学学报, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
引用本文: 叶娅兰, 何文文, 程云飞, 侯孟书, 李云霞. 面向压缩感知的基于相关性字典学习算法[J]. 电子科技大学学报, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
YE Ya-lan, HE Wen-wen, CHENG Yun-fei, HOU Meng-shu, LI Yun-xia. Correlation Based Dictionary Learning Algorithm for Compressed Sensing[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
Citation: YE Ya-lan, HE Wen-wen, CHENG Yun-fei, HOU Meng-shu, LI Yun-xia. Correlation Based Dictionary Learning Algorithm for Compressed Sensing[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011

面向压缩感知的基于相关性字典学习算法

doi: 10.3969/j.issn.1001-0548.2017.05.011
基金项目: 

国家自然科学基金 61501096

国家自然科学基金 61472067

四川省国际科技合作与交流项目 2016HH0020

四川省科技支撑计划 2015GZ0199

四川省科技支撑计划 2016FZ0105

详细信息
    作者简介:

    叶娅兰(1975-), 女, 博士, 副教授, 主要从事智能信息处理算法、压缩感知、生物医学信号处理方面的研究

  • 中图分类号: TP391

Correlation Based Dictionary Learning Algorithm for Compressed Sensing

图(3) / 表(1)
计量
  • 文章访问数:  4321
  • HTML全文浏览量:  1390
  • PDF下载量:  114
  • 被引次数: 0
出版历程
  • 收稿日期:  2016-11-08
  • 修回日期:  2017-04-27
  • 刊出日期:  2017-09-01

面向压缩感知的基于相关性字典学习算法

doi: 10.3969/j.issn.1001-0548.2017.05.011
    基金项目:

    国家自然科学基金 61501096

    国家自然科学基金 61472067

    四川省国际科技合作与交流项目 2016HH0020

    四川省科技支撑计划 2015GZ0199

    四川省科技支撑计划 2016FZ0105

    作者简介:

    叶娅兰(1975-), 女, 博士, 副教授, 主要从事智能信息处理算法、压缩感知、生物医学信号处理方面的研究

  • 中图分类号: TP391

摘要: 压缩感知理论作为一种新兴技术,能够降低传感节点的能量消耗,推动基于可穿戴设备的远程健康监护系统的发展。其中,字典学习算法获得的过完备字典应用于压缩感知重构时能获得较高的重构精度,因此备受关注。传统字典学习算法通常未考虑到信号内部隐含的相关,不能充分地捕捉到信号特征,当应用到压缩感知重构时不能精确地重构信号。该文充分利用生理信号隐含的相关性的结构特征,提出一种基于相关性的加权最小二乘字典学习算法,克服了传统字典学习算法应用到压缩感知重构信号时精度差的缺陷。实验结果表明,该算法能够充分地捕捉信号特征,提高应用于压缩感知重构恢复领域的信噪比,使得压缩后的信号能被精确地重构恢复出来。

English Abstract

叶娅兰, 何文文, 程云飞, 侯孟书, 李云霞. 面向压缩感知的基于相关性字典学习算法[J]. 电子科技大学学报, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
引用本文: 叶娅兰, 何文文, 程云飞, 侯孟书, 李云霞. 面向压缩感知的基于相关性字典学习算法[J]. 电子科技大学学报, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
YE Ya-lan, HE Wen-wen, CHENG Yun-fei, HOU Meng-shu, LI Yun-xia. Correlation Based Dictionary Learning Algorithm for Compressed Sensing[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
Citation: YE Ya-lan, HE Wen-wen, CHENG Yun-fei, HOU Meng-shu, LI Yun-xia. Correlation Based Dictionary Learning Algorithm for Compressed Sensing[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(5): 703-708. doi: 10.3969/j.issn.1001-0548.2017.05.011
  • 近些年,人们在日常生活中对可穿戴设备的便携性需求使可穿戴远程健康监护系统得到较快的发展。如何降低传感节点的能量消耗,计算和传输功耗是可穿戴远程健康监护系统面临的主要问题之一。2006年压缩感知理论的出现较好地解决了该问题[1-2]。信号的稀疏表示是压缩感知理论应用的前提, 其中,稀疏基(字典)的选择影响着信号重构的时间长短和质量好坏。研究表明[3-5],信号在字典下的表示系数越稀疏则重构信号的质量越高,所以字典的选择十分重要。近几年的研究表明[6-8],通过学习方法获得的字典在各种应用领域有非常出色的性能。因此基于字典学习算法获得的过完备字典对面向压缩感知重构的应用(可穿戴远程健康监护系统)具有重要意义。

    到目前为止,许多字典学习算法不断被提出以适应多种输入信号类型。经典算法有最优方向法[9]、加权最小二乘字典学习(weighted least square dictionary learning, WLS-DL)算法[10-11]以及K奇异值分解(K-singular value decomposition, K-SVD)算法[12]等。这些算法大都应用于去噪或分类[13-16],最近有一些研究学者将字典学习算法应用到压缩感知的信号重构中。其中,文献[17]将K-SVD应用于可穿戴远程健康监护系统的压缩感知心电信号重构,文献[18]使用基于字典学习方法获得的过完备字典对三维超声图像进行压缩感知重构。但是,这些算法没有充分考虑训练信号内部隐含的特征,从而影响到过完备字典在压缩感知的信号重构精度。

    为了解决上述问题,本文充分挖掘信号(尤其是生理信号)隐含的相关性的结构特征,提出一种基于相关性的加权最小二乘字典学习(correlation-based weighted least square-dictionary learning, CWLS-DL)算法,主要应用于压缩感知信号重构。该算法利用信号内部的相关性信息,提高过完备字典在压缩感知的信号重构精度。实验表明,本文提出的CWLS-DL算法在字典学习时能够获得更低的均方根误差,充分地捕捉到信号特征,进而提高应用于压缩感知的重构恢复信号的信噪比,使得压缩后的信号能被精确地重构出来。

    • 本文提出一种基于相关性的加权最小二乘字典学习(CWLS-DL)算法,充分地挖掘生理信号内部的相关性特征,从而提高过完备字典在压缩感知的信号重构精度。本文算法的步骤为:1) 基于相关性聚类的训练样本预处理;2) 分块字典训练;3) 集中字典训练。图 1给出了算法的思想框架。

      图  1  本文基于相关性加权最小二乘字典学习CWLS-DL算法

    • 本阶段利用k-means聚类算法(聚类标准为皮尔逊相关系数,Pearson correlation coefficient)将训练样本集聚为N(正整数)类/块(本文将一类称为一块),同一块信号的相关性较强,不同块的信号之间相关性较弱。具体地,相关系数值较大的信号样本聚为同一块,相关系数值较小的信号样本聚为不同的块,则原始训练样本集X被分为N个子训练样本块,有:

      $$ \mathit{\boldsymbol{X}} = {\rm{[}}{\mathit{\boldsymbol{X}}^1}{\mathit{\boldsymbol{X}}^2} \cdots {\mathit{\boldsymbol{X}}^N}{\rm{]}} $$ (1)

      式中, $\mathit{\boldsymbol{X}} \in {R^{L \times M}}$ ,M为训练样本个数,L为每个样本长度;N是输入到聚类算法的类别数。可根据聚类效果评价指标来选取适当的N值,如Silhouette值,其值越大,聚类效果越好[19]

      子训练样本集对应的N个初始子训练字典为:

      $$ {\mathit{\boldsymbol{D}}^1} \in {R^{L \times {K_1}}},{\mathit{\boldsymbol{D}}^2} \in {R^{L \times {K_2}}}, \cdots ,{\mathit{\boldsymbol{D}}^N} \in {R^{L \times {K_N}}} $$ (2)

      式中, ${K_N} > L$ , ${K_1}, {K_2}, \cdots, {K_N}$ 的值由聚类算法确定,每个子训练字典的初值是从与其对应的子训练样本块中随机选取,如 ${\mathit{\boldsymbol{D}}^1}$ 是从 ${\mathit{\boldsymbol{X}}^1}$ 中选取。

    • 在上阶段将原始训练样本集X分为N个子训练样本块后,为了使N个子训练字典能充分学习N个子训练样本块的特征,需要进行分块字典训练,即每个子训练字典学习相对应的子训练样本块的特征。在此阶段,依据N个子训练样本块进行交替优化,对信号进行稀疏表示的同时求得所需的过完备字典。

      1) 稀疏编码,固定子训练字典,基于常用的正交匹配追踪算法[20]得到子稀疏系数矩阵;2) 字典更新,固定子稀疏系数矩阵,使用加权最小二乘算法更新子训练字典。对于第j个子训练样本块,本文给出使用加权最小二乘算法得到子训练字典更新公式的推导过程:在字典更新中要解决使带有权重的重构信号与输入信号的误差的Frobenius范数最小,即:

      $$ \arg \mathop {\min }\limits_{{\mathit{\boldsymbol{D}}^j}} f({\mathit{\boldsymbol{D}}^j}) = \arg \mathop {\min }\limits_{{\mathit{\boldsymbol{D}}^j}} \left\| {({\mathit{\boldsymbol{X}}^j} - {\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}){\mathit{\boldsymbol{ \boldsymbol{\varPsi} }}^j}} \right\|_F^2 $$
      $$ {\rm{s}}{\rm{.t}}{\rm{. }}\forall \mathit{\boldsymbol{\alpha }} \in {\mathit{\boldsymbol{A}}^j}{\rm{ }}{\left\| \mathit{\boldsymbol{\alpha }} \right\|_0} = {\rm{ }}\sigma $$ (3)

      式中, ${\mathit{\boldsymbol{D}}^j}$ 表示第j个子训练字典; ${\mathit{\boldsymbol{X}}^j}$ 表示第j个子训练样本块; ${\mathit{\boldsymbol{A}}^j}$ 表示与 ${\mathit{\boldsymbol{X}}^j}$ 对应的子稀疏系数矩阵; ${{\mathit{\boldsymbol{ \boldsymbol{\varPsi} }}^j}}$ 为误差加权矩阵; $\mathit{\boldsymbol{\alpha }}$ 表示 ${\mathit{\boldsymbol{A}}^j}$ 中的任意一个向量; $\sigma $ 表示大于0的一个正数。

      $$ \left\| {({\mathit{\boldsymbol{X}}^j} - {\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}){\mathit{\boldsymbol{ \boldsymbol{\varPsi} }}^j}} \right\|_F^2 = $$
      $$ {\rm{tr(}}{\mathit{\boldsymbol{X}}^j}{\mathit{\boldsymbol{W}}^j}{({\mathit{\boldsymbol{X}}^j})^{\rm{T}}} - {\rm{tr(}}{\mathit{\boldsymbol{X}}^j}{\mathit{\boldsymbol{W}}^j}({\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}^{\rm{T}}{\rm{)}} - $$
      $$ {\rm{ tr(}}{\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}{\mathit{\boldsymbol{W}}^j}{\mathit{\boldsymbol{Y}}^j}{\rm{) + tr(}}{\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}{\mathit{\boldsymbol{W}}^j}{({\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j})^T}{\rm{)}} $$ (4)

      式中, ${\mathit{\boldsymbol{W}}^j} = {\mathit{\boldsymbol{ \boldsymbol{\varPsi} }}^j}{({\mathit{\boldsymbol{ \boldsymbol{\varPsi} }}^j})^{\rm{T}}}$ ,则 ${\mathit{\boldsymbol{W}}^j} = {{\rm{(}}{\mathit{\boldsymbol{W}}^j}{\rm{)}}^{\rm{T}}}$ ,是为了方便推导的记号。

      $$ \frac{{\partial f({\mathit{\boldsymbol{D}}^j})}}{{\partial {\mathit{\boldsymbol{D}}^j}}} = \frac{{\partial \left\| {({\mathit{\boldsymbol{X}}^j} - {\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}){\mathit{\boldsymbol{ \boldsymbol{\varPsi} }}^j}} \right\|_F^2}}{{\partial {\mathit{\boldsymbol{D}}^j}}} = $$
      $$ - 2{\mathit{\boldsymbol{X}}^j}{\mathit{\boldsymbol{W}}^j}{({\mathit{\boldsymbol{A}}^j})^{\rm{T}}} + 2{\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j}{\mathit{\boldsymbol{W}}^j}{({\mathit{\boldsymbol{A}}^j})^{\rm{T}}} $$ (5)

      令 $\frac{{\partial f({\mathit{\boldsymbol{D}}^j})}}{{\partial {\mathit{\boldsymbol{D}}^j}}} = 0$ 后的字典更新迭代公式为:

      $$ {\mathit{\boldsymbol{D}}^j} = {\mathit{\boldsymbol{X}}^j}{\mathit{\boldsymbol{W}}^j}{({\mathit{\boldsymbol{A}}^j})^{\rm{T}}}{({\mathit{\boldsymbol{A}}^j}{\mathit{\boldsymbol{W}}^j}{({\mathit{\boldsymbol{A}}^j})^{\rm{T}}})^{\rm{T}}} $$ (6)

      l指示子训练样本块的个数,则第k次迭代中第j个子训练样本块对应的权重 $\mathit{\boldsymbol{W}}_k^j$ 的设置方式如下所示[14]。首先计算误差矩阵 ${\mathit{\boldsymbol{R}}^j}$ 为:

      $$ {\mathit{\boldsymbol{R}}^j} = {\mathit{\boldsymbol{X}}^j} - {\mathit{\boldsymbol{D}}^j}{\mathit{\boldsymbol{A}}^j} = [{\mathit{\boldsymbol{r}}^j}(1){\rm{ }}{\mathit{\boldsymbol{r}}^j}(2){\rm{ }} \cdots {\rm{ }}{\mathit{\boldsymbol{r}}^j}(l)] $$ (7)

      再依据得到的误差矩阵 ${\mathit{\boldsymbol{R}}^j}$ 计算权重矩阵 ${\mathit{\boldsymbol{W}}^j}$ :

      $$ {\mathit{\boldsymbol{W}}^j} = {\rm{diag}}\left[ {\frac{1}{{\left\| {{\mathit{\boldsymbol{r}}^j}(1)} \right\|_2^2}},\frac{1}{{\left\| {{\mathit{\boldsymbol{r}}^j}(2)} \right\|_2^2}}, \ldots ,\frac{1}{{\left\| {{r^j}(l)} \right\|_2^2}}} \right] $$ (8)

      式中, ${\mathit{\boldsymbol{W}}^j}$ 的初值设置过程:从 ${\mathit{\boldsymbol{X}}^j}$ 中随机选取样本得到 ${\mathit{\boldsymbol{D}}^j}$ 的初值,将 ${\mathit{\boldsymbol{D}}^j}$ 的初值与 ${\mathit{\boldsymbol{X}}^j}$ 代入到正交匹配追踪算法[19]得到子稀疏系数矩阵 ${\mathit{\boldsymbol{A}}^j}$ ,再依据式(7) 得到误差矩阵,最后依据式(8) 得到权重矩阵 ${\mathit{\boldsymbol{W}}^j}$ 的初值。

      因此,第j个子训练样本块对应的子训练字典 ${\mathit{\boldsymbol{D}}^j}$ 更新迭代的式(6) 便得到了。则最终对于N个子训练样本块,得到N个子训练字典 ${\mathit{\boldsymbol{D}}^1}, {\mathit{\boldsymbol{D}}^2}, \cdots, {\mathit{\boldsymbol{D}}^N}$ 。

    • 在得到N个子训练字典后,为了得到原始信号样本X的字典,则需要集中字典训练。注意,此阶段所用的加权最小二乘算法与文献[10-11]中所用的传统的加权最小二乘算法存在两点不同:1) 文献[10-11]依据从原始信号样本中随机选取的样本得到的初始字典;本文所用的初始字典是上一个阶段训练出的子训练字典合并的字典,已经捕捉了各个子信号样本集的特征。2) 文献[10-11]在训练字典时,字典原子个数固定,没有根据实际学习情况进行调整;本文中,对合并的字典进行集中训练的同时,找出字典原子之间的距离(采用欧式距离(euclidean distance))过小的原子,去掉重复的原子,只保留其中的一个,使字典原子个数可以自适应地调整。

      合并后的字典记为 $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ ,有:

      $$ \mathit{\boldsymbol{ \boldsymbol{\varPhi} }} = [{\mathit{\boldsymbol{D}}^1}{\rm{ }}{\mathit{\boldsymbol{D}}^2}{\rm{ }} \cdots {\rm{ }}{\mathit{\boldsymbol{D}}^N}] $$ (9)

      式中, $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }} \in {R^{L \times K}}$ , $K = {K_1} + {K_2} + \cdots + {K_N}$ 。

      接下来按照与分块字典训练同样的两步策略(稀疏编码和字典更新)进行字典学习,在字典更新时由加权最小二乘算法得到的字典迭代公式为:

      $$ \mathit{\boldsymbol{ \boldsymbol{\varPhi} }} = \mathit{\boldsymbol{XW}}{\mathit{\boldsymbol{A}}^{\rm{T}}}{(\mathit{\boldsymbol{AW}}{\mathit{\boldsymbol{A}}^{\rm{T}}})^{ - 1}} $$ (10)

      式中,X表示原始训练样本集;A表示与X对应的稀疏系数矩阵;权重W的设置方式如下所示。

      首先计算误差矩阵R

      $$ \mathit{\boldsymbol{R}} = \mathit{\boldsymbol{X}} - \mathit{\boldsymbol{ \boldsymbol{\varPsi} A}} = [\mathit{\boldsymbol{r}}(1){\rm{ }}\mathit{\boldsymbol{r}}(2) \cdots \mathit{\boldsymbol{r}}(l)] $$ (11)

      再依据得到的误差矩阵 $\mathit{\boldsymbol{R}}$ 计算权重矩阵 $\mathit{\boldsymbol{W}}$ :

      $$ \mathit{\boldsymbol{W}} = {\rm{diag}}\left[ {\frac{1}{{\left\| {\mathit{\boldsymbol{r}}(1)} \right\|_2^2}},\frac{1}{{\left\| {\mathit{\boldsymbol{r}}(2)} \right\|_2^2}}, \ldots ,\frac{1}{{\left\| {\mathit{\boldsymbol{r}}(l)} \right\|_2^2}}} \right] $$ (12)

      式中,W的初值设置过程:将合并后的字典 $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 和训练样本集X带入到正交匹配追踪算法[20]得到稀疏系数矩阵A,再由式(11) 得到合并后的误差矩阵R, 最后由式(12) 得到权重矩阵W的初值。

      每一次训练计算 $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 中任意两个原子( $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 中每一列称为原子)之间的欧式距离,若值小于设定的阈值,则去除其中一个原子。如字典中第一与第二个原子之间的距离为:

      $$ {d_{12}} = \sqrt {\sum\limits_{i = 1}^L {{{({\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}_{{\rm{ }}i1}} - {\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}_{{\rm{ }}i2}})}^2}} } $$ (13)

      式中,i代表某一个字典原子的维度。最终,本文提出的CWLS-DL算法迭代直到收敛,得到的过完备字典 $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 会在压缩感知信号重构中被用到。

    • 压缩感知是一种新兴的信号采样方法。相比于传统的奈奎斯特采样定理,它可以极大降低采样数据量[1]。压缩感知指出如果被观测的原始信号 $\mathit{\boldsymbol{\bar X}} \in {\mathit{\boldsymbol{R}}^{L \times 1}}$ 是稀疏的或在某个变换域的变换系数是稀疏的,则可用一个与变换基不相关的观测矩阵 $\mathit{\boldsymbol{M}} \in {\mathit{\boldsymbol{R}}^{P \times L}}(P \ll L)$ 对稀疏系数向量α进行线性投影,得到观测向量 $\mathit{\boldsymbol{Y}} \in {\mathit{\boldsymbol{R}}^{P \times 1}}$ 。再利用优化求解方法从观测信号Y重构被观测的原始信号X。其观测模型为:

      $$ \mathit{\boldsymbol{Y}} = \mathit{\boldsymbol{{M}\bar {X}}} = \mathit{\boldsymbol{{M} \boldsymbol{\varPhi} \alpha }} $$ (14)

      式中, $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 代表本字典学习算法得到的过完备字典;X是压缩感知中被观测的原始信号。

      本文中,重构信号算法采用块稀疏贝叶斯学习(block sparse Bayesian learning, BSBL)[21],该算法利用解向量的块内元素幅值相关性,与现有的压缩感知重构算法如正交匹配追踪算法[20]、基追踪算法[22]等相比,具有更高的信号重构精度。

      基于本文提出的CWLS-DL算法得到的过完备字典在压缩感知信号重构中的应用步骤如下:

      1) 收集信号样本集,其中一部分作为字典学习所用的训练样本集X,其余样本用于压缩感知被观测的原始信号X。2) 生成 $P \times L$ 维随机稀疏二值矩阵M,基于压缩感知被观测的原始信号X,利用 $\mathit{\boldsymbol{Y}} = \mathit{\boldsymbol{M\bar X}}$ 对L维压缩感知被观测的原始信号X进行投影得到P维观测值Y。3) 基于训练样本集X,用本文提出的CWLS-DL算法获得过完备字典 $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 。4) 基于观测值Y、随机稀疏二值矩阵M、过完备字典 $\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}$ 以及 $\mathit{\boldsymbol{Y}} = \mathit{\boldsymbol{{M} \boldsymbol{\varPhi} \alpha }}$ ,使用BSBL重构算法[21],得到重构的稀疏系数α。5) 使用重构的稀疏系数α,通过 $\mathit{\boldsymbol{\hat X}} = \mathit{\boldsymbol{ \boldsymbol{\varPhi} \alpha }}$ 得到重构的信号 ${\mathit{\boldsymbol{\hat X}}}$ 。

    • 本文实验所用的生理信号是心电信号(electrocardiogram, ECG)数据集。数据集来自于MIT-BIH数据库中的apnea-ECG database (apnea-ECG, 采样频率为100 Hz)、combined measurement of ECG、breathing and seismocardiograms database[23](CEBSDB, 采样频率为5 000 Hz)。由于字典训练需要大量的信号样本,所以会对下载的信号样本进行分割。经过分割,最终会得到840个子ECG信号,每个信号维度为200。

    • 1) 为衡量字典学习误差,常用有均方误差和均方根误差,本文使用均方根误差[24](RMSE)。令 $\mathit{\boldsymbol{E}} = \mathit{\boldsymbol{X}} -\mathit{\boldsymbol{ \boldsymbol{\varPhi} A}}$ , $\mathit{\boldsymbol{E}} \in {\mathit{\boldsymbol{R}}^{L \times M}}$ ,则:

      $$ {\rm RMSE} = \sqrt {\frac{1}{{PL}}\sum\limits_{i = 1}^L {\sum\limits_{j = 1}^M {\mathit{\boldsymbol{E}}{{(i,j)}^2}} } } $$ (15)

      式中,均方根误差越小表示学习得到的过完备字典能够较好地捕捉原始信号的特征。

      2) 为了衡量学习到的过完备字典在压缩感知的信号重构精度,本文使用常用指标信噪比(signal to noise ratio, SNR)来衡量,SNR越大,说明重构恢复出的信号与压缩前的原始信号更接近:

      $$ {\rm SNR} = 10\lg \frac{{\left\| {\mathit{\boldsymbol{\bar X}}} \right\|_2^2}}{{\left\| {\mathit{\boldsymbol{\bar X}} - \mathit{\boldsymbol{\hat X}}} \right\|_2^2}} $$ (16)

      式中,X为用于压缩感知被观测的原始信号; ${\mathit{\boldsymbol{\hat X}}}$ 为重构恢复的信号。

    • 本文实验采取信号为3.1节中的ECG信号。实验部分首先依据RMSE指标衡量本文提出CWLS-DL算法的性能,再将该算法应用到压缩感知领域的重构恢复信号阶段,依据指标SNR来评估该算法在实际应用中的有效性。

    • 实验在ECG数据集下进行,对3类字典学习算法,即本文CWLS-DL算法、经典WLS-DL算法[11]和K-SVD算法[12]的RMSE性能做仿真对比,如图 2所示。图中,CWLS-DL算法的第83次迭代是从分块训练阶段到集中训练阶段的转折点。对于本文CWLS-DL算法,转折点之后的RMSE才是本文算法的最终结果,前83次的结果是各个子块的RMSE的均值(为展示图 2而计算)。

      图  2  3种算法ECG信号的RMSE比较

      在字典学习过程中,信号样本为个数为800,每个信号维度为200,字典学习算法的输入信号矩阵为200×800。WLS-DLA算法[11]与K-SVD算法[12]的字典原子个数都为600,则字典学习矩阵的维度为200×600,本文提出的CWLS-DL算法学习得到的字典收敛时的维度为200×360。基于评价聚类算法的效果好坏的指标(silhouette value,其值越大,聚类效果越好),在将类别数N设置为2到10的整数时,N为2的silhouette value最大,说明N设置为2时,聚类效果较好。因此,实验中,聚类算法的类别数N设置为2。

      图 2看出,WLS-DLA算法[11]收敛时RMSE值为22,K-SVD算法[12]收敛时RMSE值为22,本文的CWLS-DL算法在最终收敛时RMSE为8。CWLS-DL算法得到RMSE值比较小,说明本文提出的CWLS-DL算法能更加精确地学习到原始ECG信号的特征。

    • 实验在3.1节中ECG数据集下进行,在基于本文CWLS-DL算法的字典、经典的WLS-DL算法[11]和K-SVD算法[12]的字典下,关于测试集中(除去用作训练集的800个信号,测试集有40个信号)第10个ECG信号的重构恢复性能的比较,如图 3所示。从图 3看出,相比于经典的WLS-DL算法[11]和K-SVD算法[12]的字典,基于本文CWLS-DL算法的字典在重构恢复信号的质量更好,即重构恢复出的信号与原始信号更加接近,说明基于本文CWLS-DL算法获得的字典在压缩感知的应用中具有更高的信号重构精度。

      图  3  3种算法在记录号10的ECG信号重构波形与原始ECG信号波形的比较

      另外,对于ECG数据集,基于本文CWLS-DL算法的字典、WLS-DL算法[11]的字典和K-SVD算法[12]的字典,关于测试集中第12、25、33、40的ECG信号样本的重构效果(以信噪比SNR为指标)也被计算出来,重构恢复算法为BSBL_BO[21],如表 1所示。从表 1看出,相对于WLS-DL算法[11]和K-SVD算法[12]的字典,基于本文CWLS-DL算法的字典能获得更高的信噪比值,即重构出的ECG信号与原始ECG信号更接近,说明基于本文CWLS-DL算法的字典能够更精确地重构出原始ECG信号。

      表 1  3种算法得到的过完备字典在压缩感知重构中的应用性能比较

      记录号 算法
      本文的CWLS-DL 文献[11]的WLS-DL 文献[12]的K-SVD
      12 72.1082 21.753 2 33.010 2
      25 79.1289 30.136 1 10.485 8
      33 34.7761 10.595 6 9.193 4
      40 41.791 11.736 3 16.800 4
    • 综上所述,本文实验对常见生理信号(ECG)做了关于RMSE以及重构指标SNR的比较。相比两个经典的字典学习算法WLS-DL算法[11]和K-SVD算法[12],本文提出的CWLS-DL算法能获得更低的RMSE值,说明本文CWLS-DL算法能更好地捕捉原始信号相关性的结构特征。同时,为了说明算法在实际压缩感知应用方面的有效性,将本文CWLS-DL算法、WLS-DL算法[11]、K-SVD算法[12]分别获得的字典用于重构算法BSBL_BO[21]中对ECG信号进行重构恢复。从仿真结果来看,基于本文CWLS-DL算法的字典能够取得比WLS-DL算法[11]字典、K-SVD算法[12]字典更高的信噪比,说明基于本文算法重构出的信号精度更高,压缩感知重构出的信号与原始信号更加接近。

    • 本文提出了一种基于相关性的加权最小二乘字典学习CWLS-DL算法。该算法能够充分地捕捉生理信号相关性的结构特征,所获得的过完备字典应用到压缩感知中具有很高的信号重构精度。本文采用生理信号ECG数据集来验证所提出算法的有效性。实验结果表明,相比于传统字典学习算法所获得的过完备字典,本文提出的字典学习算法所获得的过完备字典应用在压缩感知中重构出的信号具有更高的信噪比,重构恢复出的信号与原始信号更加接近,能很好地解决面向压缩感知的可穿戴远程健康监护系统的实际应用问题。

参考文献 (25)

目录

    /

    返回文章
    返回