北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码

上传人:ji****n 文档编号:54465211 上传时间:2018-09-13 格式:PPT 页数:20 大小:286.50KB
返回 下载 相关 举报
北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码_第1页
第1页 / 共20页
北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码_第2页
第2页 / 共20页
北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码_第3页
第3页 / 共20页
北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码_第4页
第4页 / 共20页
北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码_第5页
第5页 / 共20页
点击查看更多>>
资源描述

《北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码》由会员分享,可在线阅读,更多相关《北京邮电大学通信工程专业通信原理课程ppt第七章信源与信源编码(20页珍藏版)》请在金锄头文库上搜索。

1、第七章 信源与信源编码,彭涛 ,7.1 引言,信源编码:去掉信源输出中的冗余信息,提供有效性 内容 信源分类及其统计特性 信息熵,信源剩余度 互信息,各类熵与互信息的关系 Huffman编码,7.2 信源分类及其统计特性描述,信源分类 连续/模拟信源 离散/数字信源 重点研究,7.2 信源分类及其统计特性描述,单消息(符号)离散信源 只输出一个离散符号 统计特性描述,7.2 信源分类及其统计特性描述,离散消息(符号)序列信源 输出一个离散消息(符号)序列 统计特性描述,7.2 信源分类及其统计特性描述,离散消息(符号)序列信源 离散无记忆序列信源:序列中前后符号相互统计独立离散有记忆序列信源:

2、序列中前后符号不是相互统计独立的 可用马尔可夫链表示,7.3 信息熵H(X),信息的基本特征:不确定性。因此信息应该是概率P的函数 信息的两个特点 随概率P的递减性:概率越大,信息量越小可加性:两个独立消息的总信息量应是两个消息的信息量的和满足这两个条件的表示信息量的函数只有一种可能:对数函数,7.3 信息熵H(X),单消息离散信源的信息度量 自信息量:出现某个消息时的信息量理解:消息出现概率越小,信息量越大,7.3 信息熵H(X),单消息离散信源的信息度量 两个单消息离散信源X,Y的联合信息量,7.3 信息熵H(X),单消息离散信源的信息熵 前面定义的是一个具体消息的信息量,因为信源输出的消

3、息有多种可能性,所以可以把信息熵理解为这个输出消息(考虑多种可能性)的平均信息量信息熵也可以理解为对信源的不确定性的平均度量 在各种可能性等概时,信源的信息熵最大(图7.3.1),7.3 信息熵H(X),信息量和熵的单位 对数以2为底时,单位为比特(bit) 对数以e为底时,单位为奈特(Nat) 对数以10为底时,单位为笛特(Det) 1bit=0.693Nat=0.301Det,7.3 信息熵H(X),两个单消息离散信源的联合熵和条件熵,7.3 信息熵H(X),联合熵和条件熵的一些性质,7.3 信息熵H(X),离散消息序列信源的信息熵、剩余度,7.3 信息熵H(X),离散消息序列信源的信息熵

4、、剩余度,7.4 互信息I(X;Y),互信息的定义I(X;Y)及理解,7.4 互信息I(X;Y),各种信息熵的关系,Huffman编码,等长编码:对信源输出的各种出现概率的符号用等长的码字表示 没有充分利用信源的统计特性 变长编码:根据信源输出符号出现概率不同选择码字,出现概率大的用短码,出现概率小的用长码 利用了信源的统计特性,其编码效率高于等长编码 Huffman编码:Huffman提出的一种变长编码 是单消息信源的最佳变长编码,Huffman编码,图解Huffman编码方法 1.写出消息概率 2.对最小的两概率编码(0/1) 3.对这两概率合并 4.重复3,直至结束 5.自顶而下到达某消息即得编码,Huffman编码,确定了对信源符号的编码规则,可进行编译码这种特性得益于Huffman编码的非延长性和异前置性 非延长性:把任一许用码组延长(添加数字)都得不到许用码字;异前置性:将任一许用码组的最后一位或几位去掉都得不到许用码组。 这两种性质可以从Huffman编码的规则看出来,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 中学教育 > 初中教育

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号