首页 压缩感知

压缩感知

举报
开通vip

压缩感知 压缩感知� 许志强y 中国科学院数学与系统科学研究院, 计算数学与科学工程计算研究所, 科学与工程计算国家重点实验室, 100190, 北京 2012年 1月 12日 摘要 压缩感知是近来国际上热门的研究方向. 其在信号处理中具有很好的应用前景. 此外, 它与逼近论、最优化、随机矩阵及离散几何等领域密切相关, 由此产生了一些漂 亮的数学结果. 本文综述压缩感知一些基本结果并介绍最新进展. 主要包括 RIP矩阵 编码与 `1 解码的性能, RIP矩阵的构造, Gelfand宽度, 个例最优性及 OMP解码等...

压缩感知
压缩感知� 许志强y 中国科学院数学与系统科学研究院, 计算数学与科学工程计算研究所, 科学与工程计算国家重点实验室, 100190, 北京 2012年 1月 12日 摘要 压缩感知是近来国际上热门的研究方向. 其在信号处理中具有很好的应用前景. 此外, 它与逼近论、最优化、随机矩阵及离散几何等领域密切相关, 由此产生了一些漂 亮的数学结果. 本文综述压缩感知一些基本结果并介绍最新进展. 主要包括 RIP矩阵 编码与 `1 解码的性能, RIP矩阵的构造, Gelfand宽度, 个例最优性及 OMP解码等. 1 引言 现实世界中, 人们经常需要对信号进行观测, 例如医学图像成像、CT 断层扫描等, 以 期通过观测信息对原始的信号进行重建. 由于计算机的离散化存储, 我们可将需重建的信 号 x抽象为一 N 维向量, 可将对信号 x的观测抽象为用一 n�N 的矩阵 �与信号 x进行 乘积. 例如在 CT扫描中, 矩阵 �通常选择为离散 Fourier矩阵. 那么, 我们所观测的信息 为 y = �x: (1) 人们自然而问: 为重建信号 x, 至少需要多少次观测? 由线性代数知识可知, 为使方程组 (1)的解存在且唯一, 我们须选择 n � N . 也就是说, 我们需要至少进行 n = N 次观测. 然 而, 现实世界中的自然信号通常具有一定规律性. 对这种规律性, 一种常用的刻画方式是自 然信号在一组基底 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 示下是稀疏的. 这里的“稀疏”是指它们用一组基底展开后, 大多数 系数为 0, 或者绝对值较小. 例如, 自然图像用小波基底展开后, 一般而言, 其展开系数大多 �国家自然科学基金 (11171336) 及创新群体 (11021101) 资助. yEmail: xuzq@lsec.cc.ac.cn 1 2 稀疏信号的恢复 2 数绝对值较小. 这也就是图像能够进行压缩的原理. 然而, 这同时为人们减少观测次数 n 从理论上提供了可能性. 因而, 压缩感知的主要任务为: 对尽量小的 n, 设计 n�N 观测矩 阵 �, 以及通过 �x 快速恢复 x 的算法. 所以, 压缩感知的研究主要分为两方面:矩阵 � 的设计; 与反求信号 x的算法. 本文主要介绍压缩感知的一些基本结果. 在每节里, 我们采用注记的方式介绍当前的 一些研究进展及研究问题, 同时提供与之相关的参考文献, 以使感兴趣的读者可进一步探 索. 本文组织结构如下: 第 2节中我们介绍了稀疏信号精确恢复的编码、解码方法. 特别 是, 我们将介绍矩阵的零空间性质, 及 RIP矩阵编码与 `1 解码的性能. 我们在第 3节中介 绍 RIP矩阵的构造方法, 包括随机矩阵、结构随机矩阵及确定性矩阵. 在第 4节中, 为理 解最优编码、解码对的性能, 我们介绍了 Gelfand宽度与编码、解码对性能的关联. 我们 在第 5节中介绍了编码、解码对在不同范数意义下的个例最优性. 最后一节简要介绍实现 解码的算法. 2 稀疏信号的恢复 为方便介绍压缩感知理论, 我们将信号的稀疏性简单理解为信号中非 0元素数目较少. 我们所指的信号即为一向量 x 2 RN . 我们用 �s表示 s-稀疏向量集合, 即 �s := fx 2 RN : kxk0 � sg; 这里 kxk0 表示 x中的非 0元素数目. 所谓对信号 x0 2 RN 编码, 即指用一 n �N 的矩阵 �与 x0 2 RN 进行乘积, 那么我们得到 y = �x0: 此处, y 2 Rn 即为我们所观测到的关于 x0 的信息. 所谓解码, 就是试图通过 y反求 x0, 也 就是寻找一从 Rn 到 RN 的映射, 我们将该映射记为 �. 我们用 �(y)表示反求结果. 一般 而言, 若 n < N , 则有无数个 x 2 RN 满足 y = �x. 因而, 只有借助信号稀疏性的特征, 我 们才有可能反求原始的信号 x0. 那么, 给定一编码、解码对 (�;�), 我们关心其性能, 即: kx0 ��(�x0)kX ; 此处 X 为一给定范数. 本文中, 我们通常选择 X 为 `p 范数, 并用下标 p表示 `p 范数. 当 x0中非 0元素数目较小的时候, 一种较为自然的解码�0(y)是如下规划问题的解: P0 : min x2RN kxk0 s:t: �x = y: 2 稀疏信号的恢复 3 这里, kxk0 表示 x中非 0元素的数目. 我们用符号 �0(y)表示 P0 的解. 也就是说, �0(y) 为在所有满足线性方程组 �x = y的向量中, 选择非 0元素数目最少的. 如果我们对矩阵 � 加些许限制, 由 P0定义的解码, 可精确恢复 s-稀疏向量: 定理 2.1 假定 � 2 Rn�N 是一个任 2s列均线性无关的矩阵. 我们选择解码为 �0, 那 么, 对任意的 x0 2 �s, �0(�x0) = x0: 根据定理 2.1, 如果我们选取观测次数 n = 2s, 那么就存在一编码、解码对 (�;�)使得对 任意的 x0 2 �s, 均有 �(�x0) = x0. 这意味着: 如果我们希望恢复一个嵌入在 N 维空间的 s-稀疏向量, 那么 2s次观测次数就足够了. 但是, 问题 P0的求解是十分不平凡的. 事实上, P0是一个 NP完全问题 [14, 31]. 那么, 我们能否找到一个更为有效的解码算法? 一个令人惊讶的事实是, 如果矩阵 �满足一定条 件, 那么回答则是肯定的, 但我们要在观测次数上付出些许代价. 我们现在将解码�1(y)定 义为如下问题的解: P1 : min x2RN kxk1 s:t: �x = y: 如所知, P1可转化为如下的线性规划问题: P2 : min t2RN t1 + t2 + � � �+ tN s:t: �x = y �tj � xj � tj ; j = 1; : : : ; N tj � 0; j = 1; : : : ; N: 从一个简单的论证可看出, P1的解与 P2的解相同. 因此, 可找到有效的算法对 P1求解. 但 是, 一个自然的问题是: P1的解与 P0的解等价吗? 或者是, 对什么样的观测矩阵 �, P1 的解与 P0 的解总一致? 为回答这一问题, 我们首先介绍矩阵的零空间性质. 零空间性质思想的主要出发点是: 解码通常是从集合 fx 2 RN : �x = yg: 中按一定规则挑选我们需要的元素. 由线性代数知识可知, 解集 fx 2 RN : �x = yg 可由 原始的信号 x0, 与矩阵的 �的零空间 Ker � := fx 2 RN : �x = 0g 2 稀疏信号的恢复 4 所确定. 因此, 人们考虑通过刻画矩阵 � 的零空间, 从而给出 P1 解与 P0 解一致的充 要条件. 我们首先介绍零空间性质的定义. 为描述方便, 我们介绍如下符号: 对于指标集 T � f1; : : : ; Ng及向量 v 2 RN , 我们将 v 中指标在 T 中的元素取出, 形成一个新的向量, 标记为 vT 2 R#T . 我们用 T c表示 T 的补集. 类似的, 我们可定义矩阵 �T . 定义 2.1 我们称矩阵 �满足 s-阶零空间性质, 如果对任意的 v 2 Ker �, 均有 kvT k1 < kvT ck1; 对任意的 T � f1; : : : ; Ng; #T = s: 直观上, 我们将零空间性质理解为 Ker�的非 0元素较为均匀的分布, 不会明显的集中于 某 s个元素上. 采用零空间性质, 我们有 定理 2.2 我们选择解码为 �1. 那么, 对任意的 x 2 �s, �1(�x) = x 如果和仅仅如果 �满足 s-阶零空间性质. 注 2.1 用类似于零空间性质的方式, 描述 �1 解码可恢复 s-稀疏信号, 在人们研究 L1 最佳逼近时就已经出现 (参考 [33]). 与定理 2.2 一致的形式首先出现在 [23]. 此外, 文 [18, 19] 也隐含了类似的结果. 虽然可以用零空间性质给出 P1 的解与 P0 的解一致的充要条件. 但是, 零空间性质并 不容易操作, 无论在理论还是计算方面. 也就是说, 给一个矩阵 �, 难以从理论上 证明 住所证明下载场所使用证明下载诊断证明下载住所证明下载爱问住所证明下载爱问 其是 否满足零空间性质, 也不容易在计算机上快速验证. 因而, 人们考虑了另外一种刻画方式, 即是所谓的矩阵 RIP性质 (Restricted Isometry Property). 我们首先介绍 RIP性质的定义 [9]. 我们说矩阵 �满足 s-阶 RIP性质, 如果存在常数 �s 2 [0; 1)使得 (1� �s)kxk2 � k�xk2 � (1 + �s)kxk2 (2) 对任意的 x 2 �s 成立. 实际上, (2) 等价于 Grammian矩阵 �>T�T 所有特征值位于区间 [1� �s; 1 + �s], 这里 #T � s. 我们称 �s为 RIP常数. 我们首先看一下如何从直观上理解 RIP矩阵. 倘若 �s = 0 , 那么矩阵 �为一标准正交 矩阵. 因而也是一方阵. 然而在压缩感知中, 我们希望矩阵 �是\扁" 的, 也就是 n < N , 同 时保留类似于正交矩阵的特征. 因而, RIP矩阵的定义 (2), 事实上刻画了矩阵 �中任取 s 列所形成的 n� s矩阵接近于正交矩阵的程度. RIP常数 �s越接近于 0, 其任取 s列所形成 的子矩阵也就越接近于正交. 从某种意义上来说, 性质也就越好. 下面定理给出了解码 �1能够精确恢复 s-稀疏信号的一个充分条件. 2 稀疏信号的恢复 5 定理 2.3 ([6, 7]) 假定编码矩阵 �满足 2s阶 RIP性质, 且 RIP常数 �2s � p 2 � 1. 我们选择解码 �1. 那么, 对任意的 x 2 �s, 均有 �1(�x) = x: 上述定理表明, 我们可用 RIP矩阵编码、�1 解码精确恢复 s-稀疏信号. 然而, 现实世 界中的信号并非严格稀疏的, 通常仅仅是近似稀疏. 对于此类信号, 如果我们仍然用 RIP 矩阵 �进行编码, 选则解码为 �1, 那么我们能较好的恢复非稀疏信号吗? 令人惊讶的是, 我们仍然能较好的完成任务. 为介绍这方面的结果, 我们首先介绍最佳 s-项逼近误差的概 念. 给定范数 k � kX , 那么信号 x 2 RN 的在范数 k � kX 意义下最佳 s-项逼近误差为 �s(x)X := min z2�s kx� zkX : 对于K � RN , 我们令 �s(K)X := max x2K �s(x)X : 下面定理指出, 对于一般信号, 我们采用 RIP矩阵编码与用 �1作解码, 那么恢复效果可用 `1范数意义下的最佳逼近误差刻画. 定理 2.4 假定编码矩阵 �满足 2s阶 RIP性质, 且 RIP常数 �2s � p 2� 1 . 我们选择 解码为 �1. 那么对任意的 x 2 RN , 我们有 k�1(�x)� xk2 � C0�s(x)1p s ; 此处 C0 为一常数. 注 2.2 定理 2.3 与定理 2.4 首先在[7] 中被证明. 但给出的 RIP常数较为粗糙. 在 [6] 中, E. Cand�es 将RIP常数改进为 �2s � p 2� 1. 仍有一些论文考虑改进定理 2.3中的 RIP 常数 p2 � 1 [4, 21]. 特别是,Mo和 Li将该常数改进为 �2s < 0:4931 [30]. 此外, Davies 和 Gribonval 建构一个例子表明, 如果 �2s � 1p2 , 那么 �1 解码不能恢复一些 s-稀疏信号. 注意到这些研究均是针对 �2s, 也就是要求矩阵满足 2s阶 RIP条件. 在 [5]中, Cai, Wang 和 Xu考虑了矩阵满足 s-阶 RIP 条件的情况, 给出了 P1 能恢复 s-稀疏信号的充分条件为 �s < 0:307. 此外, 我们特别指出, 借助离散几何中的多面体理论, 在文 [16]中, Donoho给 出了 �1 解码能精确恢复 s-稀疏信号的充要条件. 注 2.3 对于 0 < p < 1, 人们也考虑了如下定义的 �p 解码: min x2RN kxkp s:t: �x = y: 3 RIP矩阵 6 这里 kxkp := ( PN j=1jxj jp)1=p. 事实上, 当 0 < p < 1, k � kp 为一拟范数. 相比于 �1 解码, �p 解码所需观测次数较少, 但解码复杂度会有所增加[39, 13]. 注 2.4 在本文中, 我们假定信号的稀疏性指非 0元素较少. 但是, 很多应用问题里面, 信号是在一“字典”或者紧框架表示下是稀疏的. 对于此类情况, 文 [11] 进行了研究. 并 将定理 2.4进行了推广. 但是, 这个方向仍值得进一步深入探索. 我们现在回到本文开始所提出的问题: 如果选择解码为 �1, 为精确恢复所有 s-稀疏信号, 观察次数 n最少应为多少? 文 [22] 给出了如下定理: 定理 2.5 假定 � 2 Rn�N 及解码为 �1. 那么, 如果 �1(�x) = x; 对任意 x 2 �2s; 则 n � c1s log � N c2s � ; 这里 c1 = 1log 9 t 0:455且 c2 = 4. 根据上述定理, 如果解码选择为 �1, 那么我们至少需要进行 n = O(s log � N s � )次观测, 才 能精确恢复 s-稀疏信号. 这个下界能够达到吗? 也就是说, 对于 n = O(s log �Ns �), 我们能 否构造观测矩阵 � 2 Rn�N , 使得对任意 x 2 �s, 均有 �1(�x) = x? 根据定理 2.3, 我们可 将该问题归结为能否构造满足 s-阶 RIP条件的矩阵 � 2 Rn�N 使得 n = O(s log �Ns �)? 我 们将在下节回答该问题. 3 RIP矩阵 根据定理 2.3 和定理 2.4, 为保证 `1解码能恢复稀疏或者近似稀疏信号, 我们需要构造 RIP矩阵. 我们希望对于给定的 n;N 2 Z, 构造一 n�N 的矩阵 �, 以使其对尽量大的 s满 足 s-阶 RIP条件. 那么, 如何构造此类矩阵? 当前的主要构造方法有:随机矩阵、结构随 机矩阵与确定性矩阵. 3 RIP矩阵 7 3.1 随机矩阵 我们考虑两类随机矩阵:Gaussian随机矩阵与 Bernoulli随机矩阵. 所谓 Gaussian随 机矩阵, 即指矩阵中的元素 �i;j 是独立的随机变量且服从如下分布: �i;j � N (0; 1 n ) 即服从期望为 0, 方差为 1n 的 Gaussian分布. 所谓 Bernoulli矩阵, 即指矩阵 �中的元素以 相同的概率取 1p n 或 � 1p n . 定理 3.1 假定 n�N的矩阵 �是一个 Gaussian或者 Bernoulli随机矩阵. 那么, 当 s � C1n= log(N=s) 矩阵 �是一个 s-阶 RIP矩阵的概率不小于 1� exp(�C2n); 此处常数 C1; C2 仅仅依赖于 RIP常数 �. 注 3.1 一个类似于定理 3.1 的结果最早由 Kashin得到 [24]. 文 [10, 41]中也给出了 定理 3.1 的证明. 一个比较简单的证明方法是 [1] 中所介绍的. 此外, 文 [1] 也给出了 RIP 性质与 Johnson-Lindenstrauss 引理的关联. 注 3.2 定理 3.1表明Gaussian随机矩阵或Bernoulli随机矩阵满足 s = O(n= log(N=s)) 阶的 RIP性质. 根据逼近论中的宽度理论, 对于给定的 n;N 2 N, 这里的 s已经达到了最 佳阶. 3.2 确定性矩阵 虽然随机矩阵能产生尺寸接近最优的 RIP矩阵. 在工程实际中, 人们更希望构造一个 确定性 RIP矩阵. 因为确定性矩阵更利于工程设计, 此外, 从构造解码算法角度来看, 确 定性矩阵利于降低内存、设计快速的恢复算法等. 然而, 现在仍然缺少令人满意的确定性 RIP矩阵构造方法. 当前的构造方法主要是基于矩阵的列相干性. 假定矩阵 � = (a1; : : : ; aD) 2 Cn�N , 这里 n � N . 我们假定矩阵 �中的列元素标准 化, 即 kaik2 = 1. 矩阵 � 的列相干性定义为 M(�) := max i6=j jhai; ajij: 3 RIP矩阵 8 下式给出了M(�)的一个下界, 也称为Welch 界 [43] M(�) � s N � n (n� 1)N : (3) 当等号成立的时候, 我们称矩阵 �为最优 Grassmannian 框架. 文 [20]中指出, 只有当 N � n2, 等号才有可能成立 (参考 [40]). 下面定理显示了矩阵的列相干性与 RIP性质之间的关联 [15, 2]. 定理 3.2 假定 a1; : : : ; aN 是矩阵 �的列元素且其列相干性为 �. 那么, 矩阵 �满足 RIP常数为 �s = (s� 1)� 的 s-阶 RIP性质. 人们能够构造出满足条件 � = O � logNp n log n � 的矩阵 (参考 [25, 15, 45]). 我们在此介绍作者在 [45]中提出的一种构造方法, 其主要利用 了数论中的Weil指数和定理 [42]: 定理 3.3 ([42]) 假定 p是一个素数. 假定 f(x) = m1x + � � � +mdxd, 且存在一个 j, 1 � j � d, 使得 p - mj. 那么 ����� pX x=1 e 2�if(x) p ����� � (d� 1)pp: 给定正整数 q 和 d, 我们下面构造一 n � N 矩阵 �, 这里 n � 2q + 1 为素数, 且 N = (2q + 1)d. 那么, 矩阵 �的第 j 行定义为 �j;� = � exp(2�i hxj ; ki)p n � k2[�q;q]d 2 C(2q+1)d ; (4) 这里 xj = [j; j 2; : : : ; jd]=n mod 1: 下面的定理刻画了由 (4)所定义的矩阵 �的列相干性 [45]. 定理 3.4 给定正整数 q和 d, 令 n � 2q + 1为素数, 且 N = (2q + 1)d. 假设 n�N 矩 阵 �由 (4)定义. 那么, M(�) � d� 1p n : 3 RIP矩阵 9 根据 Bertrand-Chebyshev定理, 在区间 [2q+1; 4q+2]中必存在一素数. 因此, 我们可以假 定 n � 4q + 2. 那么, 对定理 3.4中的 �, 我们有 M(�) � d� 1p n � 2 logNp n log n : 组合定理 3.2和定理 3.4, 我们有 定理 3.5 定理 3.4中的 �满足 s = O �p n d � 阶 RIP条件.  在文 [45] 中, 作者也通过数值试验显示该确定性矩阵 �与随机矩阵的编码效果基本一致. 但是, 根据定理 3.1, 随机矩阵能够满足 s = O(n= log(N=s))阶 RIP性质. 这要优于由 (4) 所定义的确定性矩阵 � 的 O(pn=d) . 当 N � 2n, 根据Welch界, 对任意的 n�N 矩阵 �, � =M(�) � 1p 2(n� 1) : 因而 s� 1p 2(n� 1) � (s� 1)� < 1: 我们由此得到, 矩阵 �满足 s � p2n阶 RIP条件. 这个界说明, 如果我们仅仅 分析 定性数据统计分析pdf销售业绩分析模板建筑结构震害分析销售进度分析表京东商城竞争战略分析 矩阵 的列相干性, 难以论证确定性矩阵满足 s = O(n= log(N=s)) 阶 RIP 性质. 最近, 借助加 性组合与解析数论的工具, Bourgain等人证明了, 当 d = 2, 由 (4)所定义的矩阵 �满足 s = n1=2+�0 阶 RIP性质, 这里 �0 是一个充分小的正数. 这突破了由分析矩阵的列相干性 所带来的 1=2瓶颈 s = O(n1=2). 然而, Bourgain等人的证明需假定 d = 2. 如何将其证明 扩展到一般的整数 d, 仍然是一个挑战性问题. 3.3 结构随机矩阵 由于 Gaussian矩阵与 Bernoulli矩阵随机性较强, 确定性矩阵难以证明具有阶数较好 的 RIP性质. 本节中, 我们将介绍介于确定与随机矩阵之间的一种矩阵:结构随机矩阵. 与确定性矩阵相比, 结构随机矩阵多了些随机性, 因而可以证明其具有较好的 RIP性质, 同时, 结构随机矩阵的随机性较弱, 一般仅具有行随机. 更为重要的是, 在很多实际应用中, 观测矩阵为一结构随机矩阵. 我们在此介绍部分随机 Fourier矩阵. 我们假定 为 N �N 的离散 Fourier矩阵. 也就是, 中的元素为 j;k = 1p N exp � �2�ijk N � ; j; k 2 f0; : : : ; N � 1g: 4 宽度与最优编码、解码 10 我们可在矩阵 中随机选择 n行,得到一个 n�N的矩阵 n,我们称之为部分随机 Fourier 矩阵. 部分随机 Fourier 矩阵具有较强的应用背景. 例如, 很多时候人们观测到的是部 分频率信息. 这时候, 观测矩阵就是一部分随机 Fourier矩阵. 那么, 文 [10]中作者证明, 矩阵 n 高概率的满足 s = O(n=(logN)6) 阶 RIP 性质. 在 [38] 中, 这个结果被改进为 s = O(n=(logN)4). 然而, 人们相信这个结果并非最优的. 因而, 证明矩阵 n 高概率的满 足 s = O(n= log(N=s))阶 RIP性质, 仍然是一挑战性问题. 更多的关于结构随机矩阵的介 绍, 可参考 [36]. 4 宽度与最优编码、解码 假定 K � RN 是我们感兴趣的信号集合. 我们用 An;N 表示所有尺寸为 n � N 的编 码、解码对集合. 前面我们已经介绍了一对具体的编码、解码, 即矩阵 �为 RIP矩阵, 解 码为 �1. 而且我们也看到, 该编码、解码对具有优良的性能. 我们现在考虑如下问题:对 于信号集合 K, 最优编码、解码对 (�;�) 2 An;N 的性能是什么? 我们可用严格的数学语 言将该问题描述如下: 给定范数 X, En(K)X 是什么? 这里, En(K)X := inf (�;�)2An;N sup x2K k��x� xkX : 我们将看到, En(K)X 与Gelfand宽度紧密相关.所谓集合K � RN 在附范空间 (RN ; k�kX) 中 n阶 Gelfand宽度, 即指 dn(K)X := inf A2Rn�N sup v2K\kerA kvkX : 下面的定理显示了 En(K)X 与 dn(K)X 之间的关联. 其证明可参考 [12]. 定理 4.1 假定K 是 RN 的一个子集且满足K = �K 及K +K = C0K, 这里 C0是一 个大于 0的常数, 且 k � kX 为一范数. 那么 dn(K)X � En(K)X � C0dn(K)X ; 1 � n � N: 上面定理显示, 我们可用集合 K 的 Gelfand宽度的结果来刻画最优编码、解码对的性能. 而 Gelfand宽度在经典的逼近论中已有较为丰富的研究, 可参考 [34, 35]. 我们下面利用该 定理, 导出一个令人感兴趣的结果. 令 BN1 := fx 2 RN : kxk1 � 1g: 一个经典的不等式是: �s(x)2 � 1p s kxk1: 5 个例最优性 11 我们看到, 如果我们选择 x 2 BN1 , 那么 �s(x)2 � 1p s : 通过这个不等式, 我们可有 1 2 p s � �s(BN1 )2 � 1p s : (5) 人们已经对 BN1 的Gelfand宽度进行了深入研究 (参考[22]). 特别是, 存在常数 C1; C2使得 C1minf1; r log(N=n) n g � dn(BN1 )2 � C2minf1; r log(N=n) n g: (6) 如果我们希望存在一个常数 C3, 使得 En(B N 1 )2 � C3�s(BN1 )2; 那么, 根据定理 4.1, (5)和 (6), 则有 s � c0 n log(N=n) ; 这里, c0为一绝对常数. 注 4.1 定理 4.1显示了编码、解码对 (�;�)的最优性能与宽度之间的关联. 基于这 个关联, 人们能更好的理解压缩感知中编码、解码对的性能. 此外, 用压缩感知中发展的方 法, 文 [22]亦解决了宽度理论中的一些经典问题. 5 个例最优性 如前所述, 对于 s-稀疏信号 x, 我们一般希望寻找一编码、解码对 (�;�) 2 An;N 使得 �(�x) = x. 那么, 对于一般的信号 x 2 RN , 我们应该设置什么样的恢复误差才比较合理? 一个选择是最佳 s项逼近误差的常数倍, 也就是 C0�s(x)X , 这里 C0是一个绝对常数. 容易 看到, 如果 x为 s-稀疏信号, 那么 �s(x)X = 0. 本节里, 我们将讨论, 如果选择恢复误差为 C0�s(x)X , 最小观测次数 n至少为多少? 我们说 (�;�)在范数 X 下, 满足 s-阶个例最优性, 倘若 k�(�x)� xkX � C0�s(x)X ; 8 x 2 RN : (7) 我们通常选择范数 X 为 `p 范数. 我们主要考虑编码矩阵为 RIP矩阵, 解码为 �1 的情形. 我们首先考虑 X 为 `1范数. 5 个例最优性 12 定理 5.1 ([12]) 令 �是 3s-阶 RIP矩阵, 且 RIP常数为 �3s � � < ( p 2 � 1)2=3. 那 么, k�1(�x)� xk1 � C0�s(x)1; 8x 2 RN ; 这里 C0 = 2 p 2+2�(2p2�2)�p 2�1�(p2+1)� . 从上述定理可看出, 定理 5.1中定义的编码、解码对在范数 `1 下具有个例最优性. 如前所 述, 我们可以构 n�N 造矩阵 �满足 s-阶 RIP条件且有 n � cs log(N=s), 这里 c是一个固 定常数. 因而, 我们只需做 O(s log(N=s))次观测, 就可以得到 `1 范数下的个例最优性. 那 么, 在O(s log(N=s))次观测的条件下, 我们能够达到 `2范数下的个例最优性吗? 文 [12]表 明, 在范数 `2 下, 即使要达到 1-阶个例最优性, 观测次数 n � N=C20 . 这个结论表明, 如果 我们希望在 `2 范数下达到个例最优性, 那么观测次数与信号的真实维数基本一致. 也就是 说, 在 `2范数个例最优性的评判标准下, 人们难以在观测次数上“偷工减料”. 注 5.1 给定一 x0 2 RN . 文 [12] 研究了概率意义下的 `2 个例最优性. 特别的, 文 [12] 证明了, 如果选择 � 2 Rn�N 为 Gaussian 矩阵或者 Bernoulli 矩阵, 这里 n = O(s log(N=n)). 那么, 存在一解码 �, 使得 k�(�x0)� x0k2 � C0�s(x0)2 高概率成立. 更进一步, 文 [44]证明了, 如果 �为 Gaussian随机矩阵, 解码 �选择为 P1 的解, 那么 k�(�x0)� x0k2 � C0�s(x0)2 高概率成立. 定理 2.4给出了如下结果 k�(�x)� xk2 � C0�s(x)1p s ; 对所有 x 2 RN : 这里的编码、解码对为定理 2.4中的编码、解码对. 注意到, 该结果中左右两边采用了不 同的范数. 这启发人们将个例最优性的定义推广到一般范数情形. 我们说(�;�) 满足 s-阶 (q; p)个例最优性, 如果 k�(�x)� xkp � C0 �s(x)q s1=q�1=p ; 对所有 x 2 RN : 那么, 下面定理给出了一组满足 (q; p)个例最优性的编码、解码对. 6 算法 13 定理 5.2 ([12]) 令 �是满足 2k + ~k-阶 RIP条件, 且 RIP常数 �2k+~k � � < 1, 这里 ~k := k � N k �2�2=q : 解码 �定义为 �(y) := Argminz2ker��s(z)p: 那么, (�;�)满足常数为 C0 的 (p; q)个例最优性, 这里 C0 = 2 1 p + 3 2 1 + � 1� � + 2 1+ 1 p � 1 q : 6 算法 本节里, 我们介绍解码实现的一些算法. 如前所述, 我们可将 P1 转化为线性规划问题. 但是, 由于我们需要求解的问题规模较大, 一些常规的求解线性规划的方法, 如单纯形算法 及内点算法等, 并不能达到令人满意的效果. 考虑到问题本身的特殊性, 即矩阵 A是稠密 的, 然而需要恢复的信号 x0则是稀疏的. 人们由此构造了一些迭代算法, 如 Bregman迭代 算法 [3, 32, 48], ADM算法 [47] 及 Proximity算法 [27, 28] 等. Bregman迭代算法已经被 证明等价于增广的 Lagrangian 方法. 本文主要介绍另外一种解码算法: 贪婪算法. 一般而 言, 当矩阵行数远小于列数, 贪婪算法在实际计算中通常有更好的表现. 贪婪算法通常为寻找如下问题的近似解 min x2RN kxk0 s:t: k�x� yk2 � ": 其基本思路就是在 � 中选择最少的列, 以使其形成对 y的近似表示. 最常用的一种贪婪算 法为 OMP 算法 [26]. 该算法首先计算 y 在当前已选择列张成空间正交投影补, 然后计算 该正交投影补与 �中列内积绝对值的大小. 我们通常每次选取使内积绝对值达到最大的 列. OMP算法也有多种变形, 可参考 [37]. 我们在 Algorithm 1中详细描述了 OMP算法. 我们用 OMPs(y)表示 OMP算法迭代 s步所产生的结果. 自然的, 人们关心 OMP算 法的性能 [46, 29, 49]. 鉴于 RIP矩阵是压缩感知中较为流行的一类矩阵, 人们自然考虑如 果选择编码矩阵为 RIP矩阵, 解码 OMP算法的性能如何? 因为定理 2.4 是对 `1 解码性能 较好的刻画. 人们希望将定理 2.4 扩展到 OMP算法. 而这最终在文 [46] 中完成. 参考文献 14 Algorithm 1 OMPs(y) 输入: 编码矩阵 �, 向量 y, 最大稀疏度 s 输出: 恢复的信号 x�. 初始值: r0 = y; c0 = 0;�0 = ;; ` = 0. while ` � s do match: h` = �T r` identity: �`+1 = �` [ fargmaxj jh`(j)jg update: c`+1 = argmin z:supp(z)��`+1 ky � �zk2 r`+1 = y � �c`+1 ` = `+ 1 end while x� = cs+1 定理 6.1 ([46]) 假定 0 < � < 1 , 且 �满足 RIP条件 �2s + (1 + �)�2�s � �. 那么, 对 任意的 x 2 RN , kOMP2(��1)s(�x)� xk2 � C2�s(x)1= p s; 这里 � = d16 + 15�e且 C2 = 2(1 + �)( p 11 + 20� + 1) + 3. 注 6.1 根据定理 6.1, 为了使 OMP 算法达到 s-阶 (2; 1)个例最优性, OMP算法需要 进行约 50s次迭代 (如果我们选择 � 接近 1). 那么, 一个令人感兴趣的公开问题是, 什么 是最小的常数 n0 , 使得 OMP算法在迭代 n0s次后具有 s-阶 (2; 1) 个例最优性? 此外, 文 [46] 也考虑了 OMP算法的 (p; q)个例最优性. 致谢: 本文在袁亚湘院士建议及鼓励下完成, 在此表示感谢. 参考文献 [1] R.G. Baraniuk, M. Davenport, R.A. DeVore and M. Wakin, A simple proof of the restricted isometry property for random matrices. Constr Approx, 2008, 28: 253–263. 参考文献 15 [2] J. Bourgain, S. J. Dilworth, K. Ford, S. Konyagin and D. Kutzarova, Explicit constructions of RIP matrices and related problems. Duke Math. J, 2011, 159: 145-185. [3] J. Cai, S. Osher, and Z. Shen, Convergence of the linearized Bregman iteration for `1-norm minimization. Mathematics of Computation, 2009, 78: 2127-2136. [4] T. Cai, L. Wang, and G. Xu, Shifting inequality and recovery of sparse signals. IEEE Trans. Signal Process, 2010, 58: 1300–1308. [5] T. Cai, L. Wang, and G. Xu, New Bounds for Restricted Isometry Constants, IEEE Trans- actions on Information Theory, 2010, 56: 4388 - 4394. [6] E. Cand�es, The restricted isometry property and its implications for compressed sensing, C. R. Math. Acad. Sci. Paris, Series I, 2008, 346: 589-592. [7] E. J. Cand�es, J. Romberg, and T. Tao, Stable signal recovery from incomplete and inaccurate measurements, Comm. Pure Appl. Math., 59(8)(2006)1207-1223. [8] E. Cand�es, J. Romberg, T. Tao, Robust uncertainty principles: Exact signal reconstruction from highly incomplete frequency information, IEEE Trans. Inform. Theory, 2006, 52: 489- 509. [9] E. Cand�es, T. Tao, Decoding by linear programming, Issue Date: Dec. 2005, 51: 4203 - 4215. [10] E. J. Cand�es and T. Tao, Near-optimal signal recovery from random projections and universal encoding strategies, This paper appears in: Information Theory, IEEE Transactions on Issue Date: Dec. 2006, 52: 5406-5425. [11] E. J. Cand�es, Y. C. Eldar, D. Needell, and P. Randall, Compressed Sensing with Coherent and Redundant Dictionaries, Applied and Computational Harmonic Analysis, 2011, 31: 59-73. [12] A. Cohen, W. Dahmen and R. DeVore, Compressed sensing and best k-term approximation, J. Amer. Math. Soc. 2009, 22: 211–231. [13] Chartrand, R., Staneva, V.: Restricted isometry porperties and nonconvex compressive sens- ing. Inverse Problems 2009, 24: 1-14. [14] G. Davis, S. Mallat and M. Avellaneda, Adaptive greedy approximations, Constr. Approx., 1997, 13: 57–98. [15] R. DeVore, Deterministic constructions of compressed sensing matrices, Journal of Complexity 2007, 23: 918-925. 参考文献 16 [16] D.L. Donoho, “Neighborly polytopes and sparse solutions of underdetermined linear equa- tions, ”Technical report, Department of Statistics, Stanford University, 2005. [17] M. E. Davies and R. Gribonval, Restricted isometry constants where `p sparse recovery can fail for 0 < p � 1, IEEE Trans. Inf. Theory, 2009, 55: 2203-2214. [18] D.L. Donoho and X. Huo, Uncertainty principles and ideal atomic decompositions, IEEE Trans. Inform. Theory , 2011, 47: 2845–2862. [19] M. Elad and A.M. Bruckstein, A generalized uncertainty principle and sparse representation in pairs of bases, IEEE Trans. Inform. Theory, 2002, 48: 2558–2567. [20] H. G. Feichtinger and T. Strohmer, editors. Gabor Analysis and algorithms: Theory and Applications. Birkhauser, Boston, 1998. [21] S. Foucart and M. Lai, Sparsest solutions of underdetermined linear systems via `1- minimization for 0 < q � 1, Appl. Comput. Harmon. Anal., 2009, 26/3: 395-407. [22] S. Foucart, A. Pajor, H. Rauhut and T. Ullrich, The Gelfand widths of `p-balls for 0 < p � 1, Jounal of Complexity, 2010, 26: 629-640. [23] R. Gribonval and M. Nielsen, Sparse representations in unions of bases, IEEE Trans. Inform. Theory 2003, 49: 3320–3325. [24] B. S. Kashin, Widths of certain �nite-dimensional sets and classes of smooth functions, Izv. Akad. Nauk SSSR, Ser. Mat. 1977, 41: 334-351; English transl. in Math. USSR Izv. 1978, 11: 317-333. [25] B. S. Kashin, On widths of octahedron, Uspekhi Matem. Nauk 1975, 30: 251-252 (Russian). [26] S. Mallat and Z. Zhang. Matching Pursuits with time-frequency dictionaries. IEEE Trans. Signal Process., 1993, 41:3397-3415/ [27] C. A. Micchelli, Lixin Shen, and Yuesheng Xu, Proximity algorithms for image models: de- noising, Inverse Problems, 2011, 27. [28] C. A. Micchelli, Lixin Shen, Yuesheng Xu and Xueying Zeng, Proximity algorithms for the L1/TV image denoising model, Adv. Comput. Math., 2011. [29] Q. Mo, Y. Shen, Remarks on the Restricted Isometry Property in Orthogonal Matching Pursuit algorithm, arXiv:1101.4458. [30] Q. Mo, S. Li, New bounds on the restricted isometry constant �2k, Appl. Comp. Harm. Anal., 2011, 31: 460-468. 参考文献 17 [31] B. K. Natarajan, Sparse approximate solutions to linear systems, SIAM J. Comput. 1995, 24: 227–234. [32] S. Osher, Y. Mao, B. Dong, and W. Yin, Fast linearized Bregman iteration for compressed sensing and sparse denoising, Commun. Math. Sci. 2010, 8: 93-111. [33] A. Pinkus, On L1-Approximation, Cambridge Tracts in Mathematics 93, Cambridge Univer- sity Press, Cambridge, 1989. [34] A. Pinkus, N-Widths in Approximation Theory, Springer-Verlag, Berlin, 1985. [35] A. Pinkus, N-widths and Optimal Recovery, Lect. Notes AMS Short Course ed., in: Proc. Symp. Appl. Math., 1986, 36: 51–66. [36] H. Rauhut, Compressive Sensing and Structured Random Matrices, In M. Fornasier, editor, Theoretical Foundations and Numerical Methods for Sparse Recovery, Volume 9 of Radon Series Comp. Appl. Math., pages 1-92. deGruyter, 2010. [37] L. Rebollo-Neira and Z. Xu, Adaptive non-uniform B-spline dictionaries on a compact interval, Signal Processing,2010, 90. [38] M. Rudelson and R. Vershynin, On sparse reconstruction from Fourier and Gaussian mea- surements, Communications on Pure and Applied Mathematics, 2008, 61: 1025–1045. [39] Y. Shen, S. Li, Restricted p-isometry property and its application for nonconvex compressive sensing, Adv Comput Math. DOI 10.1007/s10444-011-9219-y. [40] T. Strohmer and R. Heath, Grassmannian frames with applications to coding and communi- cation, Appl. Comput. Harmon. Anal. 2003, 14: 257-275. [41] S. J. Szarek. Condition numbers of random matrices. J. Complexity, 1991, 7:131–149. [42] A. Weil, On some exponential sums, PNAS, USA, 1948, 34: 204-207. [43] L. R. Welch, Lower bounds on the maximum cross-correlation of signals, IEEE Trans. Info. Theory, 1974, 20: 397-399. [44] P. Wojtaszczyk, Stability and instance optimality for gaussian measurements in compressed sensing, Found. Comput. Math. 2010, 10: 1-13. [4
本文档为【压缩感知】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
is_551856
暂无简介~
格式:pdf
大小:258KB
软件:PDF阅读器
页数:18
分类:
上传时间:2013-08-17
浏览量:112