第2讲离散信源的数学模型及其信息测度

上传人:101****457 文档编号:91749677 上传时间:2019-07-01 格式:PPT 页数:50 大小:1.15MB
返回 下载 相关 举报
第2讲离散信源的数学模型及其信息测度_第1页
第1页 / 共50页
第2讲离散信源的数学模型及其信息测度_第2页
第2页 / 共50页
第2讲离散信源的数学模型及其信息测度_第3页
第3页 / 共50页
第2讲离散信源的数学模型及其信息测度_第4页
第4页 / 共50页
第2讲离散信源的数学模型及其信息测度_第5页
第5页 / 共50页
点击查看更多>>
资源描述

《第2讲离散信源的数学模型及其信息测度》由会员分享,可在线阅读,更多相关《第2讲离散信源的数学模型及其信息测度(50页珍藏版)》请在金锄头文库上搜索。

1、第二讲 信息量和熵,信源,信道,信宿,噪声源,编码器,译码器,消息,干扰,接收信号,消息,数字通信系统模型,有效性、可靠性,发送信号,2.1 离散信源的数学模型 及信息测度,信源的数学描述,通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的 可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度概率空间来描述信源。,不同的信源输出的消息的随机性质不同,可以根据消息的不同的随机性质来对信源进行分类: 按照某时刻信源输出消息的取值集合的离散性和连续性, 信源可分为离散信源和连续信源。 按照信源输出消息的所对应的随机序列中随机变量前后之间有无依赖关

2、系, 信源可分为无记忆信源和有记忆信源。 按照信源输出消息的所对应的随机序列的平稳性, 信源可分为平稳信源和非平稳信源。,信源的分类,离散信源:可能输出的消息是有限的或可数的,每次只输出一个消息,即两两不相容。 数学模型:,注:X代表随机变量,指的是信源整体;ai代表信源的某个元素。,简单信源,数学模型:,注:这里的p(x)代表概率密度函数。,简单信源,连续信源:可能输出的消息数是无限的或不可数的,每次只输出一个消息。,离散信源在不同时刻发出的符号之间是无依赖的 彼此统计独立的。,其中,,且,离散无记忆信源,由离散无记忆信源输出N长的随机序列构成的信源。,离散无记忆信源 N次扩展信源,掷两枚硬

3、币,掷一枚硬币,离散平稳信源:输出的随机序列 中每个随机变量 取值是离散的,并且随机矢量X的各维概率分布不随时间平移而改变。 连续平稳信源:输出的随机序列 中每个随机变量 取值是连续的,并且随机矢量X的各维概率密度函数不随时间平移而改变 离散无记忆信源:离散信源在不同时刻发出的符号之间是彼此统计独立的。,其它几种常见信源,有记忆信源:输出的随机序列X中各随机变量之间有依赖关系,但记忆长度有限。 m阶马尔可夫信源:信源每次发出的符号只与前m个符号有关,与更前面的符号无关。 随机波形信源:信源输出的消息在时间上和取值上都是连续的。,其它几种常见信源,设单符号离散信源的概率空间为,自信息量定义,如果

4、知道事件xi已发生,则该事件所给出的信息量称为自信息,定义为:,对数换底关系:,自信息量定义,I (xi) 含义 当事件xi发生以前,表示事件xi 发生的不确定性 当事件xi发生以后,表示事件xi所含有的信息量 I (xi)单位 常用对数底是2,信息量的单位为比特(bits); 若取自然对数,则信息量的单位为奈特(nats); 1 natlog2e l.433 bit,,或,(1) I (xi)是非负值 (2) 当p(xi) = 1时,I(xi) = 0 (3) 当p(xi) = 0时,I(xi) = (4) I(xi)是先验概率p(xi)的单调递减函数,即 当p(x1)p(x2)时,I (x

5、1)I (x2) (5)两个独立事件的联合信息量等于它们分别的信息量之和,即统计独立信源的信息量等于它们分别的信息量之和。,自信息的性质,二进制码元0,1,当符号概率为p(0)=1/4, p(1)=3/4,则这两个符号的自信息量为: I(0) =-log2 (1/4)=log24= 2 bits I(1) =-log2 (3/4) =0.4151 bits,一个以等概率出现的二进制码元(0,1)所包含的自信息量为:,自信息量例题,I(0)= I(1)= -log2 (1/2)=log22=1 bits,自信息量例题,一次掷两个色子,求下列事件发生后提供的信息量。 a.仅有一个为3; b.至少有

6、一个为4; c.两个之和为偶数。 解: 一个色子有6个符号,X=1,2,3,4,5,6,两个色子的总数为36。 a. 事件概率为5*2/36=5/18 b. 事件概率为(52+1)/36=11/36 c. 事件概率为63/36=1/2 则: I(a)=log(18/5)=1.848 (bits) I(b)=log(36/11)=1.7105 (bits) I(c)=log2=1 (bits),考虑两个随机事件,其联合概率空间为,联合自信息与条件自信息,在事件yj出现的条件下,随机事件xi发生的 条件自信息量,条件自信息量,联合自信息量,联合自信息量和条件自信息量关系,当X和Y独立时,,信源各个

7、离散消息的自信息量的数学期望(即概率加权的统计平均值)为信源的平均信息量,称为信源的信息熵,也叫信源熵或香农熵,简称熵。 熵函数的自变量是X表示信源整体,实质上是离散无记忆信源平均不确定度的度量。与自信息不同,自信息表示某一消息所含有的信息量,它是一个随机变量,不能用它来作为整个信源的信息测度。,信源熵定义,信源熵H(X)的物理含义 信源输出后,每个离散消息所提供的平均信息量; 信源输出前,信源的平均不确定度; (反映了随机变量X的随机性) 对该信源输出进行无错编码所需的最小编码长度; 消除信源不确定度所需要的信息的量度.,信源熵理解,注意:,电视屏上约有 500 600= 3105个格点,按

8、每格点有8个不同的灰度等级考虑,则共能组成 个不同的画面。,= 9 105 bits,信源熵例题,按等概率计算,平均每个画面可提供的信息量为,有一篇千字文章,假定每字可从万字表中任选,则共有不同的千字文 N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文可提供的 信息量为 H(X) log2N 1.3 104 bits,“一个电视画面”平均提供的信息量远远超过“一篇千字文”提供的信息量。,信源熵例题,例如有两个信源,其概率空间分别为:,因为H(Y) H(X) 所以信源Y比信源X的平均不确定性要大。,信源熵例题,该信源X输出符号只有两个,设为0和1输出

9、符号发生的概率分别为p和q,pq=l,即信源的概率空间为,则二元信源熵为 H(X)= -plogp-qlogq = -plogp- (1- p)log(1-p) = H(p),信源熵例题,H(p) = -plogp- (1- p)log(1-p),条件熵是在联合符号集合XY上的条件自信息量的数学期望。 在已知随机变量Y的条件下,随机变量X的条件熵定义为:,要用联合概率加权,条件熵是一个确定值,表示信宿在收到Y后,信源X仍然存在的不确定度。这是传输失真所造成的。有时称H(X/Y)为信道疑义度,也称损失熵。称条件熵H(Y/X)为噪声熵。,条件熵,联合离散符号集合XY上的每个元素对 的联合自信 息量

10、的数学期望。,联合熵,进一步扩展,熵、条件熵、联合熵关系,当Ui相互独立时,当X和Y相互独立时,一个二进信源X发出符号集0,1,经过离散无记忆信道传输,信道输出用Y表示.由于信道中存在噪声,接收端除收到0和1的符号外,还有不确定符号“2” 已知: X的先验概率: p(x0)=2/3, p(x1)= 1/3, 符号转移概率: p(y0|x0)=3/4, p(y2|x0)=1/4 p(y1|x1)=1/2, p(y2|x1)=1/2,,X,Y,0,1,0,1,2,3/4,1/2,1/2,1/4,信源熵H(X),例 题,得联合概率: p(x0y0) = p(x0) p(y0 |x0) = 2/33/

11、4 = 1/2 p(x0y1) = p(x0) p(y1 |x0) = 0 p(x0y2) = p(x0) p(y2 |x0) = 2/31/4 = 1/6 p(x1y0) = p(x1) p(y0 |x1) = 0 p(x1y1) = p(x1) p(y1 |x1) = 1/31/2=1/6 p(x1y2) = p(x1) p(y2 |x1) = 1/31/2=1/6,由,例 题,噪声熵 H(Y|X),X,Y,0,1,0,1,2,3/4,1/2,1/2,1/4,联合熵 H(XY) H(XY)H(X)H(Y|X)=1.8 bits,得 p(y0) = p(xiy0) = p(x0y0) +p(

12、x1y0) =1/2+0 = 1/2 p(y1) = p(xiy1) = p(x0y1) +p(x1y1) = 0+1/6 =1/6 p(y2) = p(xiy2) = p(x0y2) +p(x1y2) = 1/6+1/6=1/3,由,例 题,信道输出熵H(Y),由,得,同理 p(x0 |y1)=0 ; p(x1 |y1)=1 p(x0 |y2)=1/2; p(x1 |y2)=1/2,信道疑义度 H(X|Y),例 题,或 H(X|Y)= H(XY)-H(Y)=1.8-1.47=0.33bit,熵的基本性质,概率矢量,熵函数,非负性,非负性 H(X)0,由于0pk1, 所以logpk0,-log

13、pk0, 则总有H(X)0。,对称性,根据加法交换律可以证明,当变量交换顺序时熵函数的值不变, 即信源的熵只与概率空间的总体结构有关,而与各概率分量对应的状态顺序无关。,对称性,确定性,当信源X的信源空间X,P中,任一概率分量等于1,根据完备空间特性,其它概率分量必为0,这时信源为一个确知信源,其熵为0。,确定性,这说明信源空间中增加某些概率很小的符号,虽然当发出这些符号时,提供很大的信息量,但由于其概率接近于0,在信源熵中占极小的比重, ,使信源熵保持不变。,扩展性,扩展性,可加性,证明:,可加性,极值性最大离散熵定理,信源X中包含K个不同离散消息时,信源熵 ,当且仅当X中各个消息出现的概率

14、全相等时,上式取等号。,表明等概信源的不确定性最大,具有最大熵,为,极值性,H(p) 1.0 0.5 0 0.5 1 p,二元离散信源,H(p) = -plogp- (1- p)log(1-p),引理1(常用对数不等式):lnx x-1,当且仅当x=1时等号成立。,令f(x)=lnx(x-1) ,则,可见,f(x)是x的上凸函数,且当x=1时,f(x)有极大值。故,即 lnx(x-1),f(x)=lnx-(x-1) 0,证明:,令 ,可得 即等概时熵最大,为 。,证明:,引理2香农辅助定理,极值性最大离散熵定理,信源X中包含K个不同离散消息时,信源熵 ,当且仅当X中各个消息出现的概率全相等时,

15、上式取等号。,表明等概信源的不确定性最大,具有最大熵,为,极值性,定理:1. H(X/Y) H(X) (条件熵不大于无条件熵) 2. H(XY) H(X)+H(Y),证明:,基本定理,由定理1,得,基本定理推广,H(X/Y) H(X),H(XY) H(X)+H(Y),相互独立时等号成立,唯一性 香农指出,存在这样的不确定性的度量,它是概率 分布 的函数 ,且该函数应满足: 对称性 极值性 可加性 扩展性 它的形式是唯一的。,唯一性,本节小结,信源的数学模型及分类,信源的平均自信息量-信源熵,定义:自信息的数学期望,含义:几种解释,与联合熵、条件熵之间的关系,离散信源的非平均信息量,27个硬币中有一个重量偏轻,其它26个为标准重量。试用信息量观点分析在不用砝码的天平上至少称多少次,就能发现这个轻的硬币?怎样称?,思考:,设有4枚同值硬币,其中1枚硬币可能是假币,如是假币,其重量与真币不同,但不知比真币轻还是重。现在给你一部没有砝码的天平和1枚真币,要求你回答有无假币?如有假币要求找出那枚假币,并指出那枚假币是比真币轻还是重?试用信息量观点分析最少需称多少次才能保证一定能找出那枚假币,并给

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 中学教育 > 职业教育

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号