差错控制编码第2章信息的统计度量

上传人:公**** 文档编号:567371404 上传时间:2024-07-20 格式:PPT 页数:51 大小:2MB
返回 下载 相关 举报
差错控制编码第2章信息的统计度量_第1页
第1页 / 共51页
差错控制编码第2章信息的统计度量_第2页
第2页 / 共51页
差错控制编码第2章信息的统计度量_第3页
第3页 / 共51页
差错控制编码第2章信息的统计度量_第4页
第4页 / 共51页
差错控制编码第2章信息的统计度量_第5页
第5页 / 共51页
点击查看更多>>
资源描述

《差错控制编码第2章信息的统计度量》由会员分享,可在线阅读,更多相关《差错控制编码第2章信息的统计度量(51页珍藏版)》请在金锄头文库上搜索。

1、主要内容 从概率的角度研究问题n自信息量n互信息量n平均自信息量n平均互信息量信息的大小多个信息之间关联的密切程度2.1 自信息和条件自信息n2.1.1 自信息量事件发生的概率越大,它发生后提供的信息量越小。张三今天吃饭了张三今天吃饭了事件发生的概率越小,一旦该事件发生,它提供的信息量就越大。美国总统的专机发生空难美国总统的专机发生空难2.1.1 自信息n定义定义2-1 任意随机事件的自信息量定义为该事件发生概率的对数的负值。n假设事件xi发生的概率为p(xi),则其自信息定义式为n根据该公式可能提出的问题底数是多少?n常用底数:2真的成反比吗?nI(x)0n规定:0log0 = 0自信息量的

2、含义n自信息量表示了一个事件是否发生的不确自信息量表示了一个事件是否发生的不确定性的大小。一旦该事件发生,就消除了定性的大小。一旦该事件发生,就消除了这种不确定性,带来了信息量这种不确定性,带来了信息量.n自信息量表示了一个事件的发生带给我们自信息量表示了一个事件的发生带给我们的信息量的大小。的信息量的大小。n自信息量表示了确定一个事件是否发生,自信息量表示了确定一个事件是否发生,所需的信息量的大小。所需的信息量的大小。n自信息量表示了将事件的信息量表示出来,自信息量表示了将事件的信息量表示出来,所需的二进制位的个数。所需的二进制位的个数。 自信息量的例子n假设“张三今天吃饭了”这个事件发生的

3、概率是99.99%,则该事件的自信息量为:n这表明该事件的不确定性很小。n假设“美国总统的专机发生空难”这个事件发生的概率是0.01%,则该事件的自信息量为:n这表明该事件的不确定性很大。联合自信息量n定义定义2-2 二维联合集XY上的元素(xiyj) 的联合自信息量定义为n联合自信息量联合自信息量衡量的是多个事件同时出现的不确定性;不确定性;n或者,两个事件同时发生带给我们的信息量的大小;n或者,将该信息量表示出来,所需的二进制位的个数。2.1.2 条件自信息量n定义2-3 事件xi在事件yj给定的条件下的条件自信息量定义为:n含义:知道事件yj之后,仍然保留的关于事件xi的不确定性;或者,

4、事件yj发生之后,事件xi再发生,能够带来的信息量。p(x):x出现的概率出现的概率 I(x):x的不确定性的不确定性p(x|y):y出现之后出现之后 x出现的概率出现的概率I(x|y):知道:知道y之后仍然保留的关于之后仍然保留的关于 x的不确定性的不确定性衡量的都是不确定性衡量的都是不确定性先验概率先验概率后验概率后验概率条件自信息量的例子n事件:x=“美国总统的专机发生空难”y=“今天是9.11”n概率:p(x)= 0.01%p(x|y)=1%n事件x的自信息量为: 事件x在事件y发生的情况下的条件自信息量为:2.2 互信息量n举例张三今天没来上课张三有可能病了n为什么没来上课就会猜到生

5、病了?n因为二者有关系n互信息衡量的就是这种关系的大小象形字,本意:绞绳用的工具,又象握手象形字,本意:绞绳用的工具,又象握手互相,两者或者多者相互作用互相,两者或者多者相互作用两个或者多个事件之间关联的密切程度两个或者多个事件之间关联的密切程度2.2.1 互信息量n定义2-4 随机事件yj的出现给出关于事件xi的信息量,定义为互信息量。n定义式:n单位:同自信息量互信息量的含义n 还可表示为:n含义:本身的不确定性,减去知道了事件y之后仍然保留的不确定性,即由由y所所提供的关于提供的关于x的信息量的信息量,或者说由由y所消所消除的除的x的不确定性的不确定性。互信息量互信息量=原有的不确定性原

6、有的不确定性-尚存在的不确定性尚存在的不确定性对数的几个性质:对数的几个性质:互信息量的例子n事件:x=“美国总统的专机发生空难”y=“今天是9.11”n概率:p(x)= 0.01% p(x|y)=1%n前面已求出自信息量和条件自信息量为: 而x和y的互信息量为:2.2.2 互信息量的性质n概率乘法公式n全概率公式x1x2xn和y1p(x1y1)p(x2y1)p(xny1)p(y1)y2p(x1y2)p(x2y2)p(xny2)p(y2)ymp(x1ym)p(x2ym)p(xnym)p(ym)和p(x1)p(x2)p(xn)1全概率公式全概率公式互信息量的性质1互信息量的互易性nI(x;y)

7、= I(y;x)n证明:n含义:由y所提供的关于x的信息量等于等于由x 所提供的关于y的信息量概率乘法公式全概率公式互信息量的性质2互信息量可为0n当事件x、y统计独立时,互信息量为0 n证明:n含义:当两个事件相互独立时,一个事件不能提供另一个事件的任何信息。n即一个事件发生之后,对于确定另一个事件是否发生没有任何帮助。p(x|y)=p(x)无论是否知道y,都对x出现的概率没有影响x和y没有什么关系概率乘法公式全概率公式互信息量的性质3互信息量可正可负n正正:ny的出现有助于肯定肯定x的出现 x:张三病了。 y:张三没来上课。n负负:ny的出现有助于否定否定x的出现 x:李四考了全班第一名。

8、 y:李四没有复习功课。n无论正负,互信息量的绝对无论正负,互信息量的绝对值越大,值越大,x和和y的关系越密切。的关系越密切。回想自信息量回想自信息量I(x)I(x)0:x的出现或多或少总能的出现或多或少总能带来一些信息带来一些信息互信息量的性质4互信息量不大于其中任一事件的自信息量n证明证明n同理:同理:I(x;y) = I(y;x) I(y)n互信息量互信息量=原有的不确定性原有的不确定性-尚存在的不确定尚存在的不确定性性2.3 离散集的平均自信息量(熵)n离散集X=x1, x2, , xnn离散集的概率分布表示为n离散集中的每一个事件 都有自己的自信息量n所有这些自信息量的均值,就是离散

9、集的平均自信息量n定义2-5 集X上,随机变量I(xi)的数学期望定义为平均自信息量。n又称作集X的信息熵,简称熵。nH(X)又可记作H(p1,p2,pn)平均自信息量n含义熵表示了集合中所有事件是否发生的平均不确定性的大小。熵表示了集合中事件发生,带给我们的平均信息量的大小。熵表示了确定集合中到底哪个事件发生时,所需的平均信息量的大小。熵表示了,如果用二进制数据将集合中的各个元素表示出来,所需的二进制位的个数的平均值。n熵的单位同自信息量的单位熵的例子n串口通信n某串口的概率空间为 n则熵为n n 熵的意义(对通信系统)熵的意义(对通信系统)H(X)H(X):表示信源中每个符号的平均信息量(

10、表示信源中每个符号的平均信息量(表示信源中每个符号的平均信息量(表示信源中每个符号的平均信息量(信源熵信源熵信源熵信源熵)。)。)。)。H(Y)H(Y):表示信宿中每个符号的平均信息量(表示信宿中每个符号的平均信息量(表示信宿中每个符号的平均信息量(表示信宿中每个符号的平均信息量(信宿熵信宿熵信宿熵信宿熵)。)。)。)。H(X|Y)H(X|Y):表示在输出端接收到表示在输出端接收到表示在输出端接收到表示在输出端接收到Y Y的全部符号后,发送端的全部符号后,发送端的全部符号后,发送端的全部符号后,发送端X X尚存的平均不确定性。这个对尚存的平均不确定性。这个对尚存的平均不确定性。这个对尚存的平均

11、不确定性。这个对X X尚存的不确定性是由于干扰尚存的不确定性是由于干扰尚存的不确定性是由于干扰尚存的不确定性是由于干扰引起的。引起的。引起的。引起的。信道疑义度信道疑义度信道疑义度信道疑义度( (损失熵,含糊度损失熵,含糊度损失熵,含糊度损失熵,含糊度) )H(Y|X)H(Y|X):表示在已知表示在已知表示在已知表示在已知X X的全部符号后,对于输出的全部符号后,对于输出的全部符号后,对于输出的全部符号后,对于输出Y Y尚存的尚存的尚存的尚存的平均不确定性。平均不确定性。平均不确定性。平均不确定性。信道散布度信道散布度信道散布度信道散布度( (噪声熵噪声熵噪声熵噪声熵) )H(XY)H(XY)

12、:表示表示表示表示X X 和和和和Y Y 同时发生的不确定性(同时发生的不确定性(同时发生的不确定性(同时发生的不确定性(联合熵联合熵联合熵联合熵)。两事件间的互信息量 I(xi ; yj):收到消息yj 后获得关于xi的信息量即:互信息量表示即:互信息量表示即:互信息量表示即:互信息量表示先验的不确定性减去尚存的不确定性先验的不确定性减去尚存的不确定性先验的不确定性减去尚存的不确定性先验的不确定性减去尚存的不确定性,这,这,这,这就是就是就是就是收信者获得的信息量收信者获得的信息量收信者获得的信息量收信者获得的信息量对于无干扰信道,对于无干扰信道,对于无干扰信道,对于无干扰信道,I(xI(x

13、i i ; y; yj j) = I(x) = I(xi i) );对于全损信道,对于全损信道,对于全损信道,对于全损信道,I(xI(xi i ; y; yj j) = 0) = 0;2.4、平均互信息平均互信息I(X; Y): I(xi ; yj)的统计平均。l l它代表接收到符号集Y后平均每个符号获得的关于X的信息量,也表示了输入与输出两个随机变量之间的统计约束程度。关于平均互信息关于平均互信息I(X;Y) 互信息互信息互信息互信息 I(I(x x ; ; y y) ) 代表收到某消息代表收到某消息代表收到某消息代表收到某消息y y后获得关于某后获得关于某后获得关于某后获得关于某事件事件事

14、件事件x x的信息量的信息量的信息量的信息量。它可取它可取它可取它可取正值正值正值正值,也可取,也可取,也可取,也可取负值负值负值负值。I(X;Y)I(X;Y)是是是是I (I (x x ; ; y y) )的的的的统计平均统计平均统计平均统计平均,所以,所以,所以,所以I(XI(X; ;Y) Y) = 0= 0。 若若若若I(XI(X; ;Y) Y) = 0= 0,表示在信道输出端接收到输出符表示在信道输出端接收到输出符表示在信道输出端接收到输出符表示在信道输出端接收到输出符号号号号Y Y后不获得任何关于输入符号后不获得任何关于输入符号后不获得任何关于输入符号后不获得任何关于输入符号X X的

15、信息量的信息量的信息量的信息量-全全全全损信道损信道损信道损信道。 I(X;Y) = H(X) - H(X|Y) I(X;Y) = H(X) - H(X|Y) = H(Y) - H(Y|X) = H(Y) - H(Y|X) = H(X)+H(Y)-H(XY) = H(X)+H(Y)-H(XY)其中:其中:其中:其中:平均互信息与各类熵的关系平均互信息与各类熵之间关系的集合图平均互信息与各类熵之间关系的集合图平均互信息与各类熵之间关系的集合图平均互信息与各类熵之间关系的集合图(维拉图)(维拉图)(维拉图)(维拉图)表示:表示:表示:表示:H(X)H(Y)H(X|Y)=H(X)-I(X;Y)=H(

16、X)-I(X;Y)H(Y|X)=H(Y)-=H(Y)-I(X;Y)I(X;Y)I(X;Y)H(XY)图中,左边的圆代表图中,左边的圆代表图中,左边的圆代表图中,左边的圆代表随机变量随机变量随机变量随机变量X X的熵,右的熵,右的熵,右的熵,右边的圆代表随机变量边的圆代表随机变量边的圆代表随机变量边的圆代表随机变量Y Y的熵,两个圆重叠的熵,两个圆重叠的熵,两个圆重叠的熵,两个圆重叠部分是平均互信息部分是平均互信息部分是平均互信息部分是平均互信息I(XI(X; ;Y)Y)。每个圆减去。每个圆减去。每个圆减去。每个圆减去I I(X(X; ;Y)Y)后剩余的部分代后剩余的部分代后剩余的部分代后剩余的

17、部分代表两个条件熵。表两个条件熵。表两个条件熵。表两个条件熵。I(X;Y) = H(X) - H(X|Y)I(X;Y) = H(X) - H(X|Y) = H(Y) - H(Y|X) = H(Y) - H(Y|X) = H(X)+H(Y)-H(XY) = H(X)+H(Y)-H(XY)= H(X)+H(Y)- I(X;Y)= H(X)+H(Y)- I(X;Y)n 两种特殊信道(1 1)离散无干扰信道)离散无干扰信道)离散无干扰信道)离散无干扰信道 ( ( 无损信道无损信道无损信道无损信道 ) ) 信道的输入和输出一一对应,信息无损失地传输,信道的输入和输出一一对应,信息无损失地传输,信道的输入

18、和输出一一对应,信息无损失地传输,信道的输入和输出一一对应,信息无损失地传输,称为称为称为称为无损信道无损信道无损信道无损信道。 H(X|Y) = H(Y|X) = 0H(X|Y) = H(Y|X) = 0 损失熵和噪声熵都为损失熵和噪声熵都为损失熵和噪声熵都为损失熵和噪声熵都为“ “0” 0” 由于噪声熵等于零,因此,输出端接收的信息就等于由于噪声熵等于零,因此,输出端接收的信息就等于由于噪声熵等于零,因此,输出端接收的信息就等于由于噪声熵等于零,因此,输出端接收的信息就等于平均互信息平均互信息平均互信息平均互信息: : I(X;Y) = H(X) = H(Y)I(X;Y) = H(X) =

19、 H(Y) (2 2)输入输出独立信道)输入输出独立信道)输入输出独立信道)输入输出独立信道 ( ( 全损信道全损信道全损信道全损信道 ) ) 信道输入端信道输入端信道输入端信道输入端X X与输出端与输出端与输出端与输出端Y Y完全统计独立完全统计独立完全统计独立完全统计独立 H(X|Y) = H(X) , H(Y|X) = H(Y)H(X|Y) = H(X) , H(Y|X) = H(Y) 所以所以所以所以 I(X;Y) = 0 I(X;Y) = 0 I(X;Y) = H(X) - H(X|Y)I(X;Y) = H(X) - H(X|Y) 信道的输入和输出没有依赖关系,信息无法传输,称信道的

20、输入和输出没有依赖关系,信息无法传输,称信道的输入和输出没有依赖关系,信息无法传输,称信道的输入和输出没有依赖关系,信息无法传输,称为为为为全损信道全损信道全损信道全损信道。 接收到接收到接收到接收到Y Y后不可能消除有关输入端后不可能消除有关输入端后不可能消除有关输入端后不可能消除有关输入端X X的任何不确定性,的任何不确定性,的任何不确定性,的任何不确定性,所以获得的信息量等于零。同样,也不能从所以获得的信息量等于零。同样,也不能从所以获得的信息量等于零。同样,也不能从所以获得的信息量等于零。同样,也不能从X X中获得任何中获得任何中获得任何中获得任何关于关于关于关于Y Y的信息量。的信息

21、量。的信息量。的信息量。 平均互信息平均互信息平均互信息平均互信息I(X;Y)I(X;Y)等于零,表明了等于零,表明了等于零,表明了等于零,表明了信道两端随机变量信道两端随机变量信道两端随机变量信道两端随机变量的统计约束程度等于零的统计约束程度等于零的统计约束程度等于零的统计约束程度等于零。二种极限信道各类熵与平均互信息之间的关系二种极限信道各类熵与平均互信息之间的关系二种极限信道各类熵与平均互信息之间的关系二种极限信道各类熵与平均互信息之间的关系 H(X|Y) = H(X) H(X|Y) = H(X) H(Y|X) = H(Y) H(Y|X) = H(Y) I(X;Y) = 0 I(X;Y)

22、 = 0H(X|Y)=H(Y|X)=0 H(X|Y)=H(Y|X)=0 I(X;Y)=H(X)=H(Y)I(X;Y)=H(X)=H(Y)无损信道:完全重迭无损信道:完全重迭无损信道:完全重迭无损信道:完全重迭全损信道:完全独立全损信道:完全独立全损信道:完全独立全损信道:完全独立无损信道:无损信道:无损信道:无损信道:全损信道:全损信道:全损信道:全损信道:I(X;Y)I(X;Y)=H(X)=H(X)=H(Y)=H(Y)H(Y|X)H(Y|X)H(Y|X)H(Y|X) = H(Y) = H(Y) = H(Y) = H(Y)H(X|Y)H(X|Y)H(X|Y)H(X|Y) = H(X) = H(

23、X) = H(X) = H(X)I(X;Y) = 0I(X;Y) = 0 定理定理2.1 2.1 对于固定的信道,平均互信息对于固定的信道,平均互信息I(X;Y)I(X;Y)是信源是信源概率分布概率分布p(x)p(x)的上凸函数的上凸函数 这就是说,对于一定的信道转移概率分布这就是说,对于一定的信道转移概率分布p(y|x)p(y|x),总可,总可以找到某一个先验概率分布的信源以找到某一个先验概率分布的信源X X,使平均交互信息量,使平均交互信息量I(X;Y)I(X;Y)达到相应的最大值达到相应的最大值I Imaxmax,这时称这个信源为,这时称这个信源为该信道的匹该信道的匹配信源配信源。可以说

24、,不同的信道转移概率对应不同的。可以说,不同的信道转移概率对应不同的I Imaxmax。信宿信宿信道信道信源信源 通信系统的简化模型通信系统的简化模型噪声噪声例:对于二元对称信道例:对于二元对称信道如果信源分布如果信源分布X=p,1-pX=p,1-p,则,则 qq10YX而:而:所以:所以: 当信道固定时,当信道固定时,q q为一个固定常数,平均互信息是信源分布为一个固定常数,平均互信息是信源分布的上凸函数,最大只为的上凸函数,最大只为1-H(q)1-H(q)。图示曲线表明,对于固定信道,。图示曲线表明,对于固定信道,输入符号输入符号X X的概率分布不同时,在接收端平均每个符号所获得的的概率分

25、布不同时,在接收端平均每个符号所获得的信息量就不同。当输入符号为等概率分布时,平均互信息量为最信息量就不同。当输入符号为等概率分布时,平均互信息量为最大值,接收每个符号所获得的信息量最大。大值,接收每个符号所获得的信息量最大。信道容量的理论基础信道容量的理论基础1-H(q)0 0.5 1 pI(X;Y)定理定理2.2 2.2 对于固定的信源,平均互信息对于固定的信源,平均互信息I(X;Y)I(X;Y)信道传递信道传递概率分布概率分布p(y|x)p(y|x)的下凸函数的下凸函数 这就是说,对于一个已知先验概率为这就是说,对于一个已知先验概率为p p的离散信源,总可以的离散信源,总可以找到某一个转

26、移概率分布的信道找到某一个转移概率分布的信道q q,使平均互信息量达到相应的,使平均互信息量达到相应的最小值最小值I Iminmin。信宿信宿信道信道信源信源 通信系统的简化模型通信系统的简化模型噪声噪声例:对于二元对称信道例:对于二元对称信道 当信源固定后,当信源固定后,p p为一个固定常数,改变信道特性为一个固定常数,改变信道特性q q可获得不可获得不同的平均互信息同的平均互信息I(X;Y)I(X;Y)。当。当q=1/2q=1/2时,时,I(X;Y)=0,I(X;Y)=0,即在信道输出端即在信道输出端获得的信息最小,这意味着信源的信息全部损失在信道中,这是获得的信息最小,这意味着信源的信息

27、全部损失在信道中,这是一种最差的信道,其噪声最大。一种最差的信道,其噪声最大。信息率失真理论的基础。信息率失真理论的基础。qq10YX0 0.5 1 qH(p)I(X;Y)对于无损信道,有I(X;Y) = H(X) = H(Y) = H(XY) H(X/Y)=H(Y/X)=0对于全损信道,有I(X; Y) = 0 H(X/Y)=H(X); H(Y/X)=H(Y)H(X)H(Y)H(X|Y)H(Y|X)I(X;Y)H(X,Y)ABABABABAB各类熵与集合图的类比 名称 符号 关 系 图 示 无 条 件 熵 条 件 熵 条 件 熵 联 合 熵 交 互 熵各种熵之间的关系2.3.2 熵函数的数学

28、特性n对称性n非负性n确定性n扩展性n可加性n极值性n上凸性熵函数的数学特性1对称性n集合中各分量的次序任意变更时,熵值(平均自信息量)不变n从熵(平均自信息量)的公式上来看,该结论是明显的n深层含义:熵是有局限性的熵是有局限性的。它仅与随机变量的总体结构有关,抹煞了个体的特性。n例2-7n“加权熵”晴多云 雨冰雹A地1/21/41/81/8B地1/21/81/81/4加权熵晴多云雨冰雹A地1/21/41/81/8B地1/21/81/81/4权重1112例2-8熵函数的数学特性2非负性nH(X)0n源于自信息量的非负性。n什么时候为0:有且仅有一个pi=1,其余的pi=0,即确定事件集。熵函数

29、的数学特性3确定性n集合中只要有一个事件为必然事件,则其余事件为不可能事件,熵为0。H(1,0)=H(1,0,0)=H(1,0,0)=0熵函数的数学特性4扩展性n集合X有q个事件,集合Y比X仅仅是多了一个概率接近0的事件,则两个集合的熵值一样。n证明:n含义:集合中,一个事件发生的概率比其它事件发生的概率小得多时,这个事件对于集合的熵值的贡献可以忽略。即在研究这个集合的时候,该小概率事件可以不用考虑熵函数的数学特性5可加性nH(X, Y) = H(X) + H(Y|X) n当X、Y相互独立时,H(X, Y) = H(X)+H(Y)熵函数的数学特性6极值性n各事件等概率发生时,熵最大。n最大熵定

30、理最大熵定理n例子X=x1, x2: p(x1)=p, p(x2)=1-pH(X)=-plogp-(1-p)log(1-p)X=x1, x2 , x3: p(x1)=p1, p(x2)=p2, p(x3)=1-p1-p2H(X)=-p1logp1-p2logp2-(1-p1-p2)log(1-p1-p2)熵函数的数学特性7上凸性nH(p1,p2,pq)是概率分布(p1,p2,pq)的严格上凸函数n如果fX1+(1-)X2 f(X1)+(1-)f(X2),n其中0 f(X1)+(1-)f(X2),n则称f(X)为严格上凸函数严格上凸函数。n上凸函数的直观意义n除上凸函数之外,还有下凸函数对于凸函

31、数,有詹森(Jenson)不等式Ef(x) f(Ex)2.5 连续随机变量的互信息和相对熵2.5.1 连续随机变量的统计特征n离散随机变量用概率描述n连续随机变量用概率密度描述n概率密度函数p(x)必须满足如下两个性质:p(x)0 n例如正态分布概率密度函数的主要特征n连续随机变量处在区间c, d之间的概率等于概率密度函数、x轴、x=c以及x=d所围起来的区域的面积2.5.2 连续随机变量的互信息n连续随机变量X和Y之间的平均互信息定义为n可以看出,连续随机变量定义的平均互信息I(X;Y)和离散集情况非常类似,只要将离散情况下的概率换成概率密度,求和化成积分即可。连续随机变量平均互信息的性质n非负性n当且仅当连续随机变量X与Y相互独立时,等号成立。n对称性2.5.3 相对熵n思路:从离散推导出连续n离散对于一个连续随机事件x,xixxi+的概率约为p(xi)。因此xixxi+的自信息量为-log p(xi)。进而平均自信息量为n从离散到连续:0此时-log,这说明连续随机变量的熵是无穷的

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号