信息论与编码技术chap2信源及其熵

上传人:j****9 文档编号:54663117 上传时间:2018-09-17 格式:PPT 页数:92 大小:649KB
返回 下载 相关 举报
信息论与编码技术chap2信源及其熵_第1页
第1页 / 共92页
信息论与编码技术chap2信源及其熵_第2页
第2页 / 共92页
信息论与编码技术chap2信源及其熵_第3页
第3页 / 共92页
信息论与编码技术chap2信源及其熵_第4页
第4页 / 共92页
信息论与编码技术chap2信源及其熵_第5页
第5页 / 共92页
点击查看更多>>
资源描述

《信息论与编码技术chap2信源及其熵》由会员分享,可在线阅读,更多相关《信息论与编码技术chap2信源及其熵(92页珍藏版)》请在金锄头文库上搜索。

1、第二章 信源及其熵,本章介绍 信源的统计特性和数学模型 各类信源的信息测度-熵及其性质 引入信息理论的一些基本概念和重要结论,第一章的几个推论,通信系统模型:,对信息论的学习可从信源开始 消息是信息的载荷者。信息是抽象的,消息是具体的。要研究信息,还得从研究消息入手。 由于信源发送什么消息预先是不可知的,只能用概率空间来描述信源,2.1 信源的数学模型及分类,单符号信源:输出是单个符号(代码)的消息 离散信源 连续信源 平稳随机序列信源:信源输出的消息由一系列符号序列所组成,可用N维随机矢量 X(X1,X2,XN)描述,且随机矢量X 的各维概率分布都与时间起点无关-平稳! 离散平稳信源 连续平

2、稳信源 无记忆(独立)离散平稳信源 有记忆信源 m阶马尔可夫信源 随机波形信源,离散信源(单符号),特点:输出是单个符号(代码)的消息,符号集的取值A:a1,a2,aq是有限的或可数的,可用一维离散型随机变量X来描述。 例:投硬币、书信、电报符号等等。 数学模型:设每个信源符号ai出现的(先验)概率 p(ai) (i=1,2,q) 满足:,概率空间能表征离散信源的统计特性,因此也称概率空间为信源空间。,连续信源,特点:输出是单个符号(代码)的消息,输出消息的符号集A的取值是连续的,可用一维的连续型随机变量X 来描述。 例:语音信号、热噪声信号、遥控系统中有关电压、温度、压力等测得的连续数据等等

3、。 数学模型:连续型的概率空间。即:,或,满足,或,平稳随机序列信源,总体特点:信源输出的消息由一系列符号序列所组成,可用N维随机矢量 X(X1,X2,XN)描述,且随机矢量X 的各维概率分布都与时间起点无关 平稳! 离散平稳信源:每个随机变量Xi (i1,2,N)都是离散型随机变量 连续平稳信源:每个随机变量Xi (i1,2,N) 都是取值连续的随机变量,离散无记忆平稳信源,离散平稳信源的特例,信源发出的符号都相互统计独立,即各随机变量Xi (i1,2,N)之间统计独立 性质: 独立P (X )= P (X1, X2, ,XN)= P1(X1) P2(X2) PN(XN) 平稳 P1 (Xi

4、) = P2 (Xi)= = PN (Xi) ,N维随机矢量的一个取值,i(ai1 ai2aiN),P(aik )是符号集A的一维概率分布,设各随机变量Xi取值同样符号集A:a1,a2,aq,则,描述的信源X的各输出Xi间统计独立、且取值同一符号集A,则X为离散无记忆信源,称该信源输出的N维随机矢量X 为离散无记忆信源X的N次扩展信源 若X 取值为符号集i (ai1ai2aiN), 其中(i1 , i2 ,iN =1,2 , ,q),则离散无记忆信源的N次扩展信源的数学模型是X信源空间的N重空间:,有记忆信源,信源在不同时刻发出的符号之间是相互依赖的,即信源输出的平稳随机序列X中,各随机变量X

5、i之间相互依赖。 需在N维随机矢量的联合概率分布中,引入条件概率分布来说明它们之间的关联。 例:汉字组成的中文序列中,只有根据中文的语法、习惯用语、修辞制约和表达实际意义的制约所构成的中文序列才是有意义的中文句子或文章。所以,在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相关的。其他如英文,德文等自然语言都是如此,m阶马尔可夫信源,不同时刻发出的符号间的依赖关系,记忆信源的记忆长度为m+1时,称这种有记忆信源为m阶马尔可夫信源 若上述条件概率与时间起点 i 无关,信源输出的符号序列可看成为时齐马尔可夫链,则此信源称为时齐马尔可夫信源,更一般情况:随机波形信源,实际信源输出的消息常常是时

6、间和取值都是连续的。这类信源称为随机波形信源。 随机波形信源在某一固定时间 t0 的可能取值是连续和随机的。对于这种信源输出的消息,可用随机过程来描述。 例:语音信号X(t)、热噪声信号n(t)、电视图像信号X(r(t),g(t),b(t)等时间连续函数。,2.2 离散信源的信息熵其性质,讨论基本的离散信源(即输出为单个符号的消息,且这些消息间两两互不相容) 基本的离散信源可用一维随机变量X来描述信源的输出,信源的数学模型可抽象为:,问题:这样的信源能输出多少信息?每个消息的出现携带多少信息量?,信息的度量,考虑: 信息的度量(信息量)和不确定性消除的程度有关,消除的不确定性获得的信息量; 不

7、确定性就是随机性,可以用概率论和随机过程来测度,概率小不确定性大; 推论: 概率小 信息量大,即信息量是概率的单调递减函数; 信息量应该具有可加性; 信息量的计算公式为(香农(自)信息量的度量):,一. 自信息,设离散信源X的概率空间为:,I(ai)代表两种含义: (1)当事件ai发生以前,表示事件ai发生的不确定性 (2)当事件ai发生以后,表示事件ai所提供的信息量,称事件ai发生所含有的信息量为 ai 的自信息量。定义为:,例 8个串联的灯泡x1,x2,x8,其损坏的可能性是等概率的,现假设其中有一个灯泡已损坏,问每进行一次测量可获得多少信息量?总共需要多少次测量才能获知和确定哪个灯泡已

8、损坏。,解:收到某消息获得的信息量(即收到某消息后获得关于某事件发生的信息量)不确定性减少的量(收到此消息前关于某事件发生的不确定性)- (收到此消息后关于某事件发生的不确定性),已知8个灯泡等概率损坏,所以先验概率P (x1)1/8 ,即,第二次测量获得的信息量 = I P (x2) - I P (x3)=1(bit) 第三次测量获得的信息量 = I P (x3) =1(bit) 至少要获得3个比特的信息量就可确切知道哪个灯泡已坏了。,第一次测量获得的信息量 = I P (x1) - I P (x2)=1(bit) 经过二次测量后,剩2个灯泡,等概率损坏,P (x3)1/2,一次测量后,剩4

9、个灯泡,等概率损坏,P (x2)1/4,自信息的推导,某事件发生所含有的信息量应该是该事件发生的先验概率的函数。即: I (ai) f p(ai) 根据客观事实和人们的习惯概念,函数 f p(ai) 应满足以下条件: (1)它应是先验概率p(ai)的单调递减函数,即当p (a1) p (a2) 时,有 f p (a1) 1),熵的计算例: 有一布袋内放l00个球,其中80个球是红色的,20个球是白色的。随便摸出一个球,猜测是什么颜色,那么其概率空间为:,如果被告知摸出的是红球,那么获得的信息量是:I (a1) log p(a1) log0.8= 0.32 (比特) 如被告知摸出来的是白球,所获

10、得的信息量应为:I (a2) log p(a2) log0.2 = 2.32 (比特) 平均摸取一次所能获得的信息量为 : H(X)= p(a1) I (a1) + p(a2) I (a2) =0.72(比特/符号),熵的含义,熵是从整个集合的统计特性来考虑的,它从平均意义上来表征信源的总体特征。 在信源输出后,信息熵H(X)表示每个消息提供的平均信息量; 在信源输出前,信息熵H(X) 表示信源的平均不确定性; 信息熵H(X) 表征了变量X的随机性。 例如,有两信源X、Y,其概率空间分别,计算其熵,得:H(X)=0.08( bit /符号)H(Y)=1(bit / 符号) H(Y)H(X),因

11、此信源Y比信源X的平均不确定性要大。,例 设甲地的天气预报为:晴(占48)、阴(占28)、大雨(占18)、小雨(占18)。又设乙地的天气预报为:晴 (占78),小雨(占18)。试求两地天气预报各自提供的平均信息量。若甲地天气预报为两极端情况,一种是晴出现概率为1而其余为0。另一种是晴、阴、小雨、大雨出现的概率都相等为14。试求这两极端情况所提供的平均信息量。又试求乙地出现这两极端情况所提供的平均信息量。,两个信源,解:甲地天气预报构成的信源空间为:,则其提供的平均信息量即信源的信息熵:,乙地天气预报的信源空间为:,结论:甲地天气预报提供的平均信息量大于乙地,因为乙地比甲地的平均不确定性小。,甲

12、地极端情况,极端情况1:晴天概率1,结论:等概率分布时信源的不确定性最大,所以信息熵(平均信息量)最大。,极端情况2:各种天气等概率分布,乙地极端情况,极端情况1:晴天概率1,结论:在极端情况2下,甲地比乙地提供更多的信息量。因为,甲地可能出现的消息数比乙地可能出现的消息数多。,极端情况2:各种天气等概率分布,信息熵是信源概率空间的一种特殊矩函数。这个矩函数的大小,与信源的符号数及其概率分布有关。 我们用概率矢量P来表示概率分布P(x):,三、信息熵的基本性质,这样,信息熵H(X)是概率矢量P或它的分量p1,p2,pq的q-1元函数(因各分量满足上述条件限制,所以独立变量只有q-1元)。 一般

13、 H(X)可写成:,熵函数,H(P)是概率矢量P的函数,称为熵函数。 我们用下述表示方法: 用H(x) 表示以离散随机变量x描述的信源的信息熵; 用H(P) 或 H(p1, p2 , , pq )表示概率矢量为P = (p1, p2 , , pq )的q个符号信源的信息熵。 若当 q =2 时,因为 p1+p2 = 1, 所以将两个符号的熵函数写成H(p1)或H(p2)。 熵函数H(P)是一种特殊函数,具有以下性质。,性质:,1、对称性: H(P) 的取值与分量 p1, p2 , , pq的顺序无关。 说明: 从数学角度: H(P)= pi log pi 中的和式满足交换率; 从随机变量的角度

14、:熵只与随机变量的总体统计特性有关。 一个例子:,2、确定性:H(1,0)=H(1,0,0)=H(1,0,0,0)=0 性质说明:从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号则是几乎不可能出现,那么,这个信源是一个确知信源,其熵等于零。 3、非负性: H(P) 0 说明: 随机变量X的概率分布满足0pi1,当取对数的底大于1时,log(pi) 0,-pilog(pi ) 0,即得到的熵为正值。只有当随机变量是一确知量时熵才等于零。 这种非负性合适于离散信源的熵,对连续信源来说这一性质并不存在。以后可看到在相对熵的概念下,可能出现负值。,非负性体现信息是非负的。,4、扩展性,性质说明:信源的取值数增多时,若这些取值对应的概率很小(接近于零),则信源的熵不变。,所以,上式成立,因为,5、可加性统计独立信源X和Y的联合信源的熵等于信源X和Y各自的熵之和。H(XY) = H(X)+ H(Y),

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 中学教育 > 初中教育

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号