《信息论与编码》课后习题答案

上传人:206****923 文档编号:41626318 上传时间:2018-05-30 格式:DOCX 页数:5 大小:67.74KB
返回 下载 相关 举报
《信息论与编码》课后习题答案_第1页
第1页 / 共5页
《信息论与编码》课后习题答案_第2页
第2页 / 共5页
《信息论与编码》课后习题答案_第3页
第3页 / 共5页
《信息论与编码》课后习题答案_第4页
第4页 / 共5页
《信息论与编码》课后习题答案_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《《信息论与编码》课后习题答案》由会员分享,可在线阅读,更多相关《《信息论与编码》课后习题答案(5页珍藏版)》请在金锄头文库上搜索。

1、信息论与编码常识题1 / 51、 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。 2、 1948 年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 3、 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。 4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。 5、 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 6、 信息的 可度量性 是建立信息论的基础。 7、 统计度量 是信息度量最常用的方法。 8、 熵 是香农信息论最基本最重要的概念。 9、 事物的不确定度是用时间统计发生

2、概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源 X 的 N 次扩展信源的熵等于离散信源 X 的熵的 N

3、倍 。 18、离散平稳有记忆信源的极限熵,H)/(lim121NNNXXXXHL 。 19、对于 n 元 m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量 X 在a,b区间内均匀分布时,其信源熵为 log2(b-a) 。21、平均功率为 P 的高斯分布的连续信源,其信源熵,Hc(X)=eP2log212。 22、对于限峰值功率的 N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。24、对于均值为 0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值 P 和信源的

4、熵功率P 之比 。 25、若一离散无记忆信源的信源熵 H(X)等于 2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。26、m 元长度为 ki,i=1,2,n 的异前置码存在的充要条件是: nikim11 。 27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。 28、同时掷两个正常的骰子,各面呈现的概率都为 1/6,则“3 和 5 同时出现”这件事的自信息量是 log218(1+2 log23) 。29、若一维随即变量 X 的取值区间是0,其概率密度函数为mx emxp1)( ,其中:0x,m 是 X 的数学期望,则 X 的信源熵)(XHCme2log。 30、

5、一副充分洗乱的扑克牌(52 张) ,从中任意抽取 1 张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 52log2。 31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。 33、具有一一对应关系的无噪信道的信道容量 C= log2n 。 34、强对称信道的信道容量 C= log2n-Hni 。信息论与编码常识题2 / 535、对称信道的信道容量 C= log2m-Hmi 。 36、对于离散无记忆信道和信源的 N 次扩展,其信道容量 CN= NC 。37、对于 N 个对立

6、并联信道,其信道容量 CN = NkkC1。 38、多用户信道的信道容量用 多维空间的一个区域的界限 来表示。 39、多用户信道可以分成几种最基本的类型: 多址接入信道、广播信道 和相关信源信道。 40、广播信道是只有 一个输入端和多个输出端 的信道。 41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为 加性连续信道 。42、高斯加性信道的信道容量 C=)1 (log212 NX PP。 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。44、信道矩阵 10002/12/1代表的信道的信道容量 C= 1 。45、信道矩阵

7、100101代表的信道的信道容量 C= 1 。 46、高斯加性噪声信道中,信道带宽 3kHz,信噪比为 7,则该信道的最大信息传输速率 Ct= 9 kHz 。 47、对于具有归并性能的无燥信道,达到信道容量的条件是 p(yj)=1/m) 。 48、信道矩阵 1001代表的信道,若每分钟可以传递 6*105个符号,则该信道的最大信息传输速率 Ct= 10kHz 。 49、信息率失真理论是量化、数模转换、频带压缩和 数据压缩 的理论基础。 50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 。 51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性

8、就 越大 ,获得的信息 量就越小。 52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 。 53、单符号的失真度或失真函数 d(xi,yj)表示信源发出一个符号 xi,信宿再现 yj所引起的 误差或失真 。54、汉明失真函数 d(xi,yj)= jiji10。 55、平方误差失真函数 d(xi,yj)=(yj- xi)2。 56、平均失真度定义为失真函数的数学期望,即 d(xi,yj)在 X 和 Y 的 联合概率空间 P(XY)中 的统计平均值。57、如果信源和失真度一定,则平均失真度是 信道统计特性 的函数。58、如果规定平均失真度D不能超过某一限定的值 D,即:D

9、D 。我们把DD 称为 保真度准则 。 59、离散无记忆 N 次扩展信源通过离散无记忆 N 次扩展信道的平均失真度是单符号信源通过单符号信道的平均失 真度的 N 倍。60、试验信道的集合用 PD来表示,则 PD= mjniDDxypij, 2 , 1, 2 , 1;: )/(LL。 61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 。 62、平均失真度的下限取 0 的条件是失真矩阵的 每一行至少有一个零元素 。 63、平均失真度的上限 Dmax取Dj:j=1,2,m中的 最小值 。 64、率失真函数对允许允许的平均失真度是 单调递减和连续的 。 65、对于离散无记

10、忆信源的率失真函数的最大值是 log2n 。信息论与编码常识题3 / 566、当失真度大于平均失真度的上限时 Dmax时,率失真函数 R(D)= 0 。67、连续信源 X 的率失真函数 R(D)= );()/(YXIPxypInfD。68、当2D时,高斯信源在均方差失真度下的信息率失真函数为 )(DRD22log21。 69、保真度准则下的信源编码定理的条件是 信源的信息率 R 大于率失真函数 R(D) 。70、某二元信源 2/12/110)(XPX其失真矩阵 D= 00 aa,则该信源的 Dmax= a/2 。71、某二元信源 2/12/110)(XPX其失真矩阵 D= 00 aa,则该信源

11、的 Dmin= 0 。72、某二元信源 2/12/110)(XPX其失真矩阵 D= 00 aa,则该信源的 R(D)= 1-H(D/a) 。 73、按照不同的编码目的,编码可以分为三类:分别是 信源编码、信道编码和安全编码 。 74、信源编码的目的是: 提高通信的有效性 。 75、一般情况下,信源编码可以分为 离散信源编码、连续信源编码和相关信源编码 。 76、连续信源或模拟信号的信源编码的理论基础是 限失真信源编码定理 。77、在香农编码中,第 i 个码字的长度 ki和 p(xi)之间有 )(log1)(log22iiixpkxp关系。78、对信源 16/116/116/116/18/18/

12、14/14/1(87654321xxxxxxxx XPX )进行二进制费诺编码,其编 码效率为 1 。 79、对具有 8 个消息的单符号离散无记忆信源进行 4 进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为 0 的消息。 80、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。 81、对于二元序列 0011100000011111001111000001111111,其相应的游程序列是 23652457 。 82、设无记忆二元序列中, “0”和“1”的概率分别是 p0和 p1,则“0”游程长度 L(0)的概率为 11)0( 0)0(ppLpL。 83、游程序列的熵 等

13、于 原二元序列的熵。 84、若“0”游程的哈夫吗编码效率为 0, “1”游程的哈夫吗编码效率为 1,且 01对应的二元序列的编码 效率为 ,则三者的关系是 01 。 85、在实际的游程编码过程中,对长码一般采取 截断 处理的方法。 86、 “0”游程和“1”游程可以分别进行哈夫曼编码,两个码表中的码字可以重复,但 C 码 必须不同。 87、在多符号的消息序列中,大量的重复出现的,只起占时作用的符号称为 冗余位 。 88、 “冗余变换”即:将一个冗余序列转换成一个二元序列和一个 缩短了的多元序列 。 89、L-D 编码是一种 分帧传送冗余位序列 的方法。 90、L-D 编码适合于冗余位 较多或较

14、少 的情况。 91、信道编码的最终目的是 提高信号传输的可靠性 。 92、狭义的信道编码即:检、纠错编码 。 93、BSC 信道即:无记忆二进制对称信道 。 94、n 位重复码的编码效率是 1/n 。 95、等重码可以检验 全部的奇数位错和部分的偶数位错 。96、任意两个码字之间的最小汉明距离有称为码的最小距 dmin,则 dmin=) ,(minccd cc。信息论与编码常识题4 / 597、若纠错码的最小距离为 dmin,则可以纠正任意小于等于 t= 21mind个差错。 98、若检错码的最小距离为 dmin,则可以检测出任意小于等于 l= dmin-1 个差错。 99、线性分组码是同时具

15、有 分组特性和线性特性 的纠错码。 100、循环码即是采用 循环移位特性界定 的一类线性分组码。三、判断(每题 1 分) (50 道) 1、 必然事件和不可能事件的自信息量都是 0 。错2、 自信息量是)(ixp的单调递减函数。对 3、 单符号离散信源的自信息和信源熵都具有非负性。对 4、 单符号离散信源的自信息和信源熵都是一个确定值。错 5、 单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。对 6、 自信息量、条件自信息量和联合自信息量之间有如下关系:)/()()/()()(jijijijiyxIyIxyIxIyxI对 7、 自信息量、条件自信息量和互信息量之间有如下关系:)/()()/()();(ijjjiijixyIyIyxIxIyxI对 8、 当随即变量 X 和 Y 相互独立时,条件熵等于信源熵。对 9、 当随即变量 X 和 Y 相互独立时,I(X;Y)=H(X) 。错 10、信源熵具有严格的下凸性。错 11、平均互信息量 I(X;Y)对于信源概率分布 p(xi)和条件概率分布 p(yj/xi)都具有凸函数性。 对 12、m 阶马尔可夫信源和消息长度为 m 的有记忆信源,其所含符号的依赖关系相同。 错 13、利用状态极限概率和状态一步转移概率来求 m 阶马尔可夫

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号