信源的相关性和剩余度课件

上传人:cl****1 文档编号:569388475 上传时间:2024-07-29 格式:PPT 页数:16 大小:719KB
返回 下载 相关 举报
信源的相关性和剩余度课件_第1页
第1页 / 共16页
信源的相关性和剩余度课件_第2页
第2页 / 共16页
信源的相关性和剩余度课件_第3页
第3页 / 共16页
信源的相关性和剩余度课件_第4页
第4页 / 共16页
信源的相关性和剩余度课件_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《信源的相关性和剩余度课件》由会员分享,可在线阅读,更多相关《信源的相关性和剩余度课件(16页珍藏版)》请在金锄头文库上搜索。

1、第第9 9讲讲 离散信源的剩余度及其应用离散信源的剩余度及其应用1 1、剩余度、剩余度2 2、应用、应用信源的相关性和剩余度冗余度冗余度(剩余度剩余度) 实际的离散信源可能是非平稳的,对于非平稳信源来说,其 H 不一定存在,但可以假定它是平稳的,用平稳信源的H来近似。 然而,对于一般平稳的离散信源,求H值也是极其困难的。那么,进一步可以假设它是m阶马尔可夫信源,用m阶马尔可夫信源的平均信息熵H(m+1)来近似。信源的相关性和剩余度 再进一步简化信源,即可假设信源是无记忆信源,而信源符号有一定的概率分布。这时,可用信源的平均自信息量H1=H(X)来近似。 最后,可以假定是等概分布的无记忆离散信源

2、,用最大熵H0=logM来近似。信源的相关性和剩余度 由于信源符号间的依赖关系使信源的熵减小。它们的前后依赖关系越长,信源的熵越小。当信源符号间彼此无依赖、等概率分布时,信源的熵才达到最大。 也就是说,信源符号之间依赖关系越强,平均每信源符号之间依赖关系越强,平均每个符号提供的信息量就越小。个符号提供的信息量就越小。每个符号提供的平均自信息量随着符号间的依赖关系长度的增加而减少。为此,我们引进信源的冗余度(也叫剩余度或多余度)信源的冗余度(也叫剩余度或多余度)来衡量信源的相关性程度衡量信源的相关性程度。信源的相关性和剩余度 对于一般平稳信源来说,极限熵为H (X) ,这就是说,如果我们要传送这

3、一信源的信息,理论上来说只需要有传送H (X)的手段即可。但实际上我们对它的概率分布不能完全掌握,如果把它近似成m阶马尔可夫信源,则可以用能传送Hm (X)的手段去传送具有H (X)的信源,当然这里面就不太经济。信源的相关性和剩余度定义:定义:则冗余度为则冗余度为信源的相关性和剩余度 信源的冗余度能够很好地反映信源输出的符号序列中符号之间依赖关系的强弱。 冗余度越大冗余度越大,表示信源的实际熵越小信源的实际熵越小,表明信源符号之间的依赖关系越强,即符号符号之间的记忆长度越长之间的记忆长度越长; 反之,冗余度越小冗余度越小,表明信源符号之间信源符号之间的依赖关系越弱的依赖关系越弱,即符号之间的记

4、忆长度越符号之间的记忆长度越短。短。信源的相关性和剩余度 当冗余度等于零时,信源的熵就等于极大熵H0,表明信源符号之间不但统计独立无记忆,而且各符号还是等概分布。因此,冗余度可以冗余度可以用来衡量信源输出的符号序列中各符号之间的用来衡量信源输出的符号序列中各符号之间的依赖程度。依赖程度。 例:例:以符号是英文字母的信源为例,英文字母加上空格共有27个,则最大熵为信源的相关性和剩余度 但实际上,用英文字母组成单词,再由单词组成句子时,英文字母并不是等概率出现,比如我们知道在英语中E出现的概率大于Q出现的概率。对在英文书中各符号的概率加以统计,可以得出各个字母出现的概率,由此得出第一级近似为无记忆

5、信源的熵:信源的相关性和剩余度 再考察英语的结构得知,要组成有意义的单词,英文字母的前后出现是有依赖关系的,当前面某个字母出现后,后面将出现什么字母,并不是完全不确定的,而是有一定的概率分布。例如字母T后面出现H、R的可能性较大,出现J、K、L、M、N的可能性极小,而根本不会出现Q、F、X。 考虑到字母之间的依赖性,可以把英语信源做进一步精确的近似,看作一阶或二阶马尔可夫信源,这样可以求得:信源的相关性和剩余度 因此可知,在信源所输出的序列中依赖关系越复杂,信息熵就越小。实际上,英文信源的信息熵还要小得多,一般认为 。因此,信息效率和冗余度为信源的相关性和剩余度应用应用(1)从提高传输信息效率

6、的观点出发,总是希望减少或去掉冗余度。实际的通信系统中,为了提高传输效率,往往需要把信源的大量冗余进行压缩,这就是所谓的信源编码。信源的相关性和剩余度 (2) 冗余度大的消息具有强的抗干扰能力。当干扰使消息在传输过程中出现错误时,我们能从上下关联中纠正错误。 从提高抗干扰能力的角度来看,总是希望增加或者保留信源的冗余度,或者是传输之前在信源编码后去除冗余的符号序列里加入某些特殊的冗余度,以达到通信系统理想的传输有效性和可靠性,这就是所谓的信道编码。信源的相关性和剩余度第第2章复习章复习 概念概念(1)、信息是可以定量描述的,可以比较大小信息是可以定量描述的,可以比较大小的,由概率决定;的,由概

7、率决定;、信源的分类及描述(马尔可夫信源)、信源的分类及描述(马尔可夫信源)、对于特定信源,可以求出所含不确定度,、对于特定信源,可以求出所含不确定度,也就是消除不确定度所需的信息量;也就是消除不确定度所需的信息量;、可通过对信源的观察、测量获得信息,、可通过对信源的观察、测量获得信息,以减少对信源的不确定度;以减少对信源的不确定度;信源的相关性和剩余度概念概念(2)考虑信源符号概率分布和符号之间的记忆性,信源不确定度会下降;通过传输,信宿可以得到信息I(X;Y),从而减小对信源的不确定度:H(X/Y)=H(X)-I(X;Y)信息通过系统传输,只会丢失信息,不会增加。丢失部分H(X/Y)是由噪声引起的;信源的相关性和剩余度定义、计算公式、相互关系定义、计算公式、相互关系自信息量、信源熵、互信息、条件熵、联合熵序列熵、平均符号熵、极限熵Markov信源的平稳分布、极限熵相对熵差熵冗余度信源的相关性和剩余度

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号