信息论与编码理论基础(第一章)课件

上传人:我*** 文档编号:141128737 上传时间:2020-08-04 格式:PPT 页数:25 大小:226KB
返回 下载 相关 举报
信息论与编码理论基础(第一章)课件_第1页
第1页 / 共25页
信息论与编码理论基础(第一章)课件_第2页
第2页 / 共25页
信息论与编码理论基础(第一章)课件_第3页
第3页 / 共25页
信息论与编码理论基础(第一章)课件_第4页
第4页 / 共25页
信息论与编码理论基础(第一章)课件_第5页
第5页 / 共25页
点击查看更多>>
资源描述

《信息论与编码理论基础(第一章)课件》由会员分享,可在线阅读,更多相关《信息论与编码理论基础(第一章)课件(25页珍藏版)》请在金锄头文库上搜索。

1、2020/8/4,1,第一章:引论(简介),一、通信系统模型 二、Shannon信息论的中心问题 三、Shannon信息的概念 四、概率复习内容,2020/8/4,2,一、通信系统模型,信源、信道、信宿 信源是消息的来源, 信道是消息传送媒介, 信宿是消息的目的地。,2020/8/4,3,一、通信系统模型,信源、信道、信宿 信源是消息的来源, 信道是消息传送媒介, 信宿是消息的目的地。,2020/8/4,4,一、通信系统模型,信源、信道、信宿 信源是消息的来源, 信道是消息传送媒介, 信宿是消息的目的地。,2020/8/4,5,一、通信系统模型,信源、信道、信宿 信源是消息的来源, 信道是消息

2、传送媒介, 信宿是消息的目的地。,2020/8/4,6,一、通信系统模型,信源、信道、信宿 信源是消息的来源, 信道是消息传送媒介, 信宿是消息的目的地。,2020/8/4,7,二、Shannon信息论的中心问题,“信息论”,又称为“通信的数学理论”,是研究信息的传输、存储、处理的科学。 信息论的中心问题:为设计有效而可靠的通信系统提供理论依据。 (具体地说,就是信源编码和信道编码。以下来看所要解决的具体问题。) 问题一:信源消息常常不能够完全发送。(否则发送量巨大,比如:信源消息是一片无尽的天空。因此优先捡有用的发送。什么是有用的?就是信息量大的。什么是信息量大的?) 问题二:信道因干扰而出

3、现差错,必须进行检错和纠错。(否则所收到的消息无法识别。),2020/8/4,8,三、Shannon信息的概念,(直观地认识shannon信息和信息量,而暂时不使用定义) 第一个重要概念:信道上传送的是随机变量的值。这就是说: (1)我们在收到消息之前,并不知道将要收到的是什么消息。否则消息是没有必要发送的。 (2)我们在收到消息之前,知道将要收到的可能是哪些消息,以及收到每个消息的可能性大小。换句话说,消息随机变量有一个已知的概率分布。 (3)消息随机变量的一个可能取值就称为一个事件。,2020/8/4,9,三、 Shannon信息的概念,第二个重要概念:事件的信息量。事件发生的概率越小,此

4、事件含有的信息量就越大。(直观含义:越是不太可能发生的事件竟然发生了,越是令人震惊) 例 事件A=“中国足球队3:0力克韩国足球队”,则事件A含有的信息量大。(小概率事件发生了,事件信息量大) 例 事件B=“中国足球队0:1负于韩国足球队” ,则事件B含有的信息量小。(大概率事件发生了,事件信息量小),2020/8/4,10,三、 Shannon信息的概念,第三个重要概念:消息随机变量的信息量。消息随机变量的随机性越大,此消息随机变量含有的信息量就越大。(直观含义:这种信息量的大小代表了不可预见性的大小) 例 消息随机变量X=“中国足球队与韩国足球队比赛的结果”,则消息随机变量X含有的信息量小

5、。 (随机性小,可预见性大,因此该消息随机变量含有的信息量小。) 例 消息随机变量Y=“意大利足球队与德国足球队比赛的结果”,则消息随机变量Y含有的信息量大。 (随机性大,可预见性小,因此该消息随机变量含有的信息量大。),2020/8/4,11,三、 Shannon信息的概念,第四个重要概念:两个事件的互信息量。两个事件越是互相肯定,它们的互信息量就越大。两个事件越是互相否定,它们的互信息量就越小。 如果两个事件既不互相肯定,也不互相否定,它们的互信息量就为0。 (直观含义:这种信息量的大小代表了相互肯定性的大小) 例 A=西安明日有雨, B=咸阳明日有雨,BC=咸阳明日无雨, C=北京明日有

6、雨,D=纽约明日有雨。则 A与B互信息量大, A与C互信息量小得多, A与D互信息量几乎为0, A与BC互信息量小。,2020/8/4,12,三、 Shannon信息的概念,第五个重要概念:两个消息随机变量的互信息量。两个消息随机变量的互相关性越大,它们的互信息量就越大。(直观含义:这种信息量的大小代表了相互依赖性的大小) 例 X=西安明日平均气温, Y=咸阳明日平均气温,Z=北京明日平均气温,W=纽约明日平均气温。则 X与Y互信息量大, X与Z互信息量小得多, X与W互信息量几乎为0。,2020/8/4,13,事件A的信息量,A!,2020/8/4,14,随机变量X的信息量,X?,2020/

7、8/4,15,两个事件A与B的互信息量,A,B,2020/8/4,16,两个随机变量X与Y的互信息量,X,Y,?,2020/8/4,17,四种信息量,A!,X?,A,B,X,Y,?,2020/8/4,18,四、概率复习内容,记号 P(A)表示事件A发生的概率。P(A|B)表示在事件B发生的条件下,事件A发生的条件概率。EX表示随机变量X的数学期望。 离散型随机变量 离散型随机变量X的所有事件为x1, x2, , xK,对应的概率为P(X=xk)=qk,k=1, 2, , K。通常将此随机变量记为X, xk, qk, k=1K。又X的分布列(分布矩阵)记为:,2020/8/4,19,四、概率复习

8、内容,另一个离散型随机变量Y的所有事件为y1, y2, , yJ,对应的概率为P(Y=yj)=wj,j=1, 2, , J。通常将此随机变量记为Y, yj, wj, j=1J。又Y的分布列(分布矩阵)记为:,2020/8/4,20,四、概率复习内容,两个离散型随机变量X与Y联立,得到了二维离散型随机变量(X, Y)。(X, Y)的所有事件为(xk, yj), k=1, 2, , K; j=1, 2, , J。 对应的概率为P(X, Y)= (xk, yj)=rkj,k=1, 2, , K; j=1, 2, , J。 通常将此二维随机变量记为(X, Y), (xk, yj), rkj, k=1K

9、; j=1J。(X, Y)的联合分布列(联合分布矩阵)为:,2020/8/4,21,四、概率复习内容,联合分布、边际分布、条件分布的关系:,2020/8/4,22,四、概率复习内容,rkj=qkP(Y=yj| X=xk)=wjP(X=xk| Y=yj)。 如果X与Y相互独立,则对任何k=1K,j=1J ,都成立 rkj=qkwj。 换句话说,对任何k=1K,j=1J ,都成立 P(Y=yj| X=xk)=wj。 P(X=xk| Y=yj)=qk。 数学期望(均值):,2020/8/4,23,四、概率复习内容,连续型随机变量 连续型随机变量X的所有事件x有不可列无穷多个,对应的密度函数为fX(x),-x+。通常将此随机变量记为X, fX(x)。 连续型随机变量Y的所有事件y有不可列无穷多个,对应的密度函数为fY(y),-y+。通常将此随机变量记为Y, fY(y)。 我们知道,2020/8/4,24,四、概率复习内容,两个连续型随机变量X与Y连立,得到了二维连续型随机变量(X, Y)。 (X, Y)的所有事件为(x, y)。对应的联合密度函数为f(X,Y)(x, y)。其中,2020/8/4,25,四、概率复习内容,联合密度与边际密度的关系: 如果X与Y相互独立,则对任何(x, y) ,都成立 f(X,Y)(x, y)= fX(x) fY(y)。 数学期望(均值):,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > PPT模板库 > PPT素材/模板

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号