第2章 信源与信息熵-1

上传人:飞*** 文档编号:6348293 上传时间:2017-08-08 格式:PPT 页数:85 大小:438.50KB
返回 下载 相关 举报
第2章 信源与信息熵-1_第1页
第1页 / 共85页
第2章 信源与信息熵-1_第2页
第2页 / 共85页
第2章 信源与信息熵-1_第3页
第3页 / 共85页
第2章 信源与信息熵-1_第4页
第4页 / 共85页
第2章 信源与信息熵-1_第5页
第5页 / 共85页
点击查看更多>>
资源描述

《第2章 信源与信息熵-1》由会员分享,可在线阅读,更多相关《第2章 信源与信息熵-1(85页珍藏版)》请在金锄头文库上搜索。

1、信源与信息熵,第二章,本章内容,信源的分类及基本的信源数学模型描述、自信息和信息熵的定义及性质、互信息的概念及性质、信源冗余度的描述等。,本章重点,理解信源不确定性的含义,熵函数H(X)的性质、平均互信息量的定义、性质,联合信源的联合熵、条件熵,离散平稳信源的信源熵、极限熵等概念和计算方法。了解马尔可夫信源的定义和计算方法。,2.1 信源的描述和分类,一、香农信息论的基本点,用随机变量或随机矢量来表示信源用概率论和随机过程的理论来研究信息常用的信息度量方法统计度量。(另有结构度量、语义度量、语用度量和模糊度量等方法。),2.1 信源的描述和分类,5,二、信源的分类,按照信源发出的消息在时间上和

2、幅度上的分布情况可将信源分成离散信源和连续信源两大类,连续信源是指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。,离散信源是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。,6,离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。离散有记忆信源所发出的各个符号的概率是有关联的。发出单个符号的信源是指信源每次只发出一个符号代表一个消息。发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。发出符号序列的有记忆信源

3、是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。 发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。,7,三、信源的描述,单符号离散信源 定义:一个离散无记忆信源是由n个符号消息组成的集合:X= x1,x2 xn , 这n个符号消息的概率分布为: 称为符号xi的先验概率,信源数学模型表示为: 称为概率空间,其中,8,例如:对二进制数字与数据信源,9,单个连续信源 pX(x)为随机变量X的概率密度函数,10,概率论知识复习,随机变量X和Y分别取

4、值于集合 和 X发生xi和Y发生yj的概率为p(xi)和p(yj),它们一定满足0 p(xi) ,p(yj ) 1以及和 。如果考察X和Y同时发生xi和yj的概率,则二者构成联合随机变量XY,取值于集合xiyj|i=1,2,n,j=1,2,m,元素xiyj发生的概率称为联合概率,用p(xi yj)表示。,11,概率论知识复习,如X发生xi以后,Y又发生yj的条件概率为p(yj /xi),代表xi已知的情况下,又出现yj的概率。当xi不同时,即使发生同样的yj ,其条件概率也不同,说明xi对yj的影响。而p(yj)则是对xi一无所知情况下, yj发生的概率,有时相应地称为p(yj)为yj的无条件

5、概率。同理, yj 已知的条件下xi 的条件概率记为p(xi / yj)。相应地, p(xi)称为xi的无条件概率。,12,概率论知识复习,13,概率论知识复习,1)条件概率 2)联合概率,14,概率论知识复习,3)全概率: 4)Bayes公式:,15,2.2 离散信源熵和互信息,16,2.2 离散信源熵和互信息,信源发出消息,经过信道,到达信宿,信宿收到消息,获得了信息,这个过程就称作通信。我们现在来研究通信的源头,也就是信源的特性。那么实际有用的信源应该具有什么特性呢?我们认为它应该具有不确定性(不肯定性)。信源至少应该包含两种不同的消息,例如两元信元(包含0、1),而信宿是知道信元发送(

6、0、1)的,但是它就是不知道在具体的某一时刻,信源发送的是哪个消息。这是显然的,如果它知道,就不需要通信了!,一、 不确定性,17,【例2.1 】某二元信源(含有两个不同消息的信源)发送1的概率0.99,0的概率0.01,信宿仅凭猜测就可以简单的认为信源发出的消息始终都是1,即使如此,猜错的概率仅为百分之一。这说明在这种情况下,信源基本上在发送1,信源的不确定性很小。 【例2.2 】某二元信源发送1和0的概率相等,均为0.5,这时信宿不依赖通信仅凭猜测的话,猜错的概率高达50%。这说明在这种情况下,猜测信源发送什么消息就困难了,因为信源发送什么消息相当不确定。,18,【例2.3 】如果信源具有

7、更多的消息,例如发10个数字0,1.9(例如采用4位十进制树的中文电报),而且假定这是个消息是等概率分布的,均为0.1,这时信宿仅凭猜测的话,就更难猜了。因为信源发送什么消息更加不确定。 【例2.4 】现在讨论一种极端的情况,信源只发送一种消息,即永远只发送1或者只发送0,从这样的信源中我们就不能从中获取任何信息,也就是说信源的不确定性为0。,19,信源如果没有不确定性,那么就没有实用价值。不确定度和发送的消息数目和发送符号的概率有关。为了确切的描述信源,我们采用概率空间来描述信源。 离散信源:若一类信源输出的消息常常是以一个个符号的形式出现,例如文字、字母等,这些符号的取值是有限的或可数的,

8、这样的信源称为离散信源。比如(0、1)二元信元,它的消息是以一定的概率来出现的,所以可以采用概率空间来描述。 若信源的输出是随机变量X,其出现概率为P(X),则它们所构成的集合,称为信源的概率空间或简称为信源空间。,20,1) 定义:一个符号消息 xi 的自信息量为其发生概率的对数的负数,并记为 I(xi); I (xi) = -log p(xi) 当p(xi)=0,则 I(xi);当p(xi)=1,则 I(xi)=0. 2) 自信息量的单位 自信息量的单位与所用对数的底有关: 1 对数的底是2 时,单位为比特 bit(binary unit) 2 对数的底是 e (自然对数)时,单位为奈特

9、nat(nature unit),二、自信息量,21,3 对数的底是10(常用对数) 时,单位为笛特或哈特 det (decimal unit) or Hart (Hartley) 三种信息量单位之间的换算: 1 det = log2 10 3.322 bit 1 bit = ln 2 0.6931 nat 1 bit = lg 2 0.3010 det 1 nat = log2 e 1.4427 bit 在信息论中常用以2为底的对数,为了书写方便,以后将log2书写为log,因其单位为比特bit,不会产生混淆; 注意 有些文献将log2书写为 lb。,22,【例2.5 】一个1, 0等概的二

10、进制随机序列,求任一码元的自信息量。解:任一码元不是为0就是为1因为 P(0) = P(1) = 1/2所以 I (0) = I (1) = lb (1/2) = 1(bit),23,【例2.6 】 对于2n进制的数字序列, 假设每一符号的出现完全随机且概率相等,求任一符号的自信息量。解:设2n进制数字序列任一码元xi的出现概率为p (xi),根据题意, p(xi) = 1/2n I (xi ) = lb(1/2n) = n (bit) 事件的自信息量只与其概率有关,而与它的取值无关。,24,3) 自信息量的含义 是随机量、根据单个符号消息的先验概率确定其信息量和不确定度。是该符号出现后,提供

11、给收信者的信息量。 4) 随机事件的不确定度: 不确定度在数量,单位与自信息量相同,含义不同。具有某种概率的信源符号在发生之前,存在不确定度,不确定度表征该符号的特性。,25,5) 自信息量 I(xi) 的特性 1事件xi 先验概率p(xi)=1(确定事件), 则不存在不确定性,同时不会带来信息量;I(xi)=0。 2事件xi 先验概率p(xi)=0(不可能事件),则存在不确定性应为无穷大,同时会带来无穷的信息量;I(xi) 3非负性 4单调性 若有两个事件xi,xj ,其先验概率为p(xi)p(xj),则事件xi 比事件xj 有更大的不确定性,同时会带来更多的信息量;I(xi )I(xj )

12、 5可加性 两个统计独立事件的联合自信息量应等于它们各自信息量之和; 则 I( x y ) = I( x )I( y ),26,6) 联合自信息量与条件自信息量 1 联合自信息量 定义:若有两个消息xi , yj同时出现,用联合概率p(xi yj) 表示,联合自信息量为:I(xi yj) =log p(xi yj) 当X和Y相互独立时, p(xiyj )= p(xi) p(yj ),代入到前式就有:I(xiyj )=- log2p(xi)-log2p(yj )= I(xi)+I(yj ) 说明两个随机事件相互独立时,同时发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量之和。,2

13、7,2 条件自信息量 定义:在事件yj 出现条件下,xi发生的条件概率为p(xi | yj),则 xi的条件自信息量为: I(x i | yj)=log p(xi | yj) 由于随机事件(消息)的概率在01范围内,所以联合信息量和条件自信息量也满足非负和单调递减性。,28,联合自信息、条件自信息与自信息间的关系 I(xiyj )=- log2p(xi)p(yj|xi)= I(xi)+I (yj|xi) =- log2p(yj)p(xi|yj)= I(yj)+I (xi| yj),29,作为信源总体信息测度的量应是信源各个不同符号xi (i = 1, 2, N) 所包含的自信息量I(xi) (

14、i =1, 2, , N) 在信源空间P(X) = p(x1), p(x2), , p(xi), , p(xN )中的统计平均值。,三、离散信源熵,30,【例2.7 】一个布袋内放100个球,其中80个球为红色,20球为白色。若随机摸取一个球,猜测其颜色,求平均摸取一次所获得的(自)信息量。解:随机事件的概率空间为,31,当被告知摸出红球的信息量是 当被告知摸出白球的信息量是 如果每次摸出一个球后又放回袋中,再进行下一次摸取且如此摸取n次,那么红球出现的次数为np(x1),白球出现的次数为np(x2)。随机摸取n次后总共所获得的信息量为,32,而平均随机摸取1次所获得的信息量为,33,1)定义 信息源的平均不确定度为信源中各个符号不确定 度的数学期望,记作H(X) 其中 H(X) 又称为信源X的信源熵。,34,2) H(X) 的含义 1 表示的是信源的平均不确定度。 2 表示信源 X 发出一个符号提供的平均信息量。 3 是统计量、数学期望(统计平均)、各个符号平均不确定度和平均信息量。 3) 信源熵单位: 二进制: bit/信源符号,或bit/信源序列 十进制: det/信源符号,或det/信源序列 e进制: nat/信源符号,或nat/信源序列,

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 中学教育 > 其它中学文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号