数据压缩霍夫曼编码算术编码

上传人:宝路 文档编号:47679354 上传时间:2018-07-04 格式:PPT 页数:27 大小:1.18MB
返回 下载 相关 举报
数据压缩霍夫曼编码算术编码_第1页
第1页 / 共27页
数据压缩霍夫曼编码算术编码_第2页
第2页 / 共27页
数据压缩霍夫曼编码算术编码_第3页
第3页 / 共27页
数据压缩霍夫曼编码算术编码_第4页
第4页 / 共27页
数据压缩霍夫曼编码算术编码_第5页
第5页 / 共27页
点击查看更多>>
资源描述

《数据压缩霍夫曼编码算术编码》由会员分享,可在线阅读,更多相关《数据压缩霍夫曼编码算术编码(27页珍藏版)》请在金锄头文库上搜索。

1、算术编码 Arithmetic Coding主要内容 图像压缩编码简介 Huffman编码 算术编码简介 算术编码原理 算术编码的发展及应用一 图像压缩编码简介霍夫曼编码 霍夫曼编码(Huffman coding) 根据给定数据集中霍夫曼(D.A. Huffman)在 1952年提出和描述的“从下到上”的熵编码方 法 各元素所出现的频率来压缩数据的一种统计 压缩编码方法。这些元素(如字母)出现的次 数越多,其编码的位数就越少 广泛用在JPEG, MPEG, H.26X等各种信息编 码标准中 熵(entropy) 按照香农(Shannon)的理论,在有限的互斥和联合穷举事件的 集合中,熵为事件的

2、信息量的平均值,也称事件的平均信息 量(mean information content) (依概率平均) 用数学表示为熵是数据压缩的极限霍夫曼编码(1) 计算该字符串的霍夫曼码 步骤:按照符号出现概率大小的顺序对符号进行排序 步骤:把概率最小的两个符号组成一个节点P1 步骤:重复步骤,得到节点P2,P3,P4, PN,形成一棵树,其中的PN称为根节点 步骤:从根节点PN开始到每个符号的树叶,从上到下标上0(上枝)和1(下枝),至于哪个为1哪个为0则无关紧要,但通常把概率大的标成1,概率小的标成0.(标记) 步骤:从根节点PN开始顺着树枝到每个叶子分别写出每个符号的代码.(反向编码)霍夫曼编码

3、 霍夫曼编码举例1 现有一个由5个不同符号组成的30个符号的 字符串: BABACACADADABBCBABEBEDDABEEEBB 计算 (1) 该字符串的霍夫曼码 (2) 该字符串的熵 (3) 该字符串的平均码长 (4) 编码前后的压缩比霍夫曼编码符号出现的次数 log2(1/pi)分配的代码 需要的位数B101.585?A81.907?C33.322?D42.907?E52.585?合计30符号出现的概率霍夫曼编码符号 B (10) A (8) E (5) D (4) C (3)P1 (7)P2 (12)P3 (18)P4 (30)011010 1 0代码 B(11) A(10) E(0

4、0) D(011) C(010)霍夫曼编码符号出现的次数log2(1/pi)分配的代码需要的位数 B101.5851120A81.9071016C33.3220109D42.90701112E52.5850010合计306730个字符组成的字符串需要67位5个符号的代码霍夫曼编码(2) 计算该字符串的熵其中, 是事件 的集合,并满足H(S)=(8/30)log2(30/8) + (10/30)log2(30/10) +(3/30)log2(30/3) + (4/30)log2(30/4) +(5/30)log2(30/5)= ( 44.313624.5592)/ 9.0308 2.1874 (

5、Sh)理论上可获得的压缩比为: 3:2.1874=1.37霍夫曼编码(3) 计算该字符串的平均码长平均码长:(28210333425)/302.233 位/符号压缩比: 90/67=1.34:1平均码长:67/30=2.233位(4) 计算编码前后的压缩比n编码前:5个符号需3位,30个字符,需要90位n编码后:共67位算术编码简介算术编码(Arithmetic Coding ):和霍夫曼编码不同,算术编码跳出。 分组编码的范畴, 从全序列出发, 采 用递推形式的连续编码不是将单个信源符号映射成一个码字, 而是将整个 输入符号序列映射为实数轴上0,1)区间内的一个小 区间, 其长度等于该序列的

6、概率, 再在该小区间选择 一个代表性的二进制小数, 作为实际的编码输出。算术编码 算术编码(arithmetic coding) 给已知统计信息的符号分配代码的数据无损 压缩技术 基本思想是用0和1之间的一个数值范围表示 输入流中的一个字符(串),而不是给输入 流中的每个字符分别指定一个码字 实质上是为整个输入字符流分配一个“码字”, 因此它的编码效率可接近于熵 算术编码(1)基本思想:基于递归概率区间划分的二进制编码具体过程 : 把信源符号序列Xi|i=1,2,n发生的概率用实数区间 0,1上的间隔(Xi的取值范围)来表示 按符号概率大小来分配符号间隔,使0,1随迭代计算次数的增加而逐次变窄

7、; 所求最后范围便是替代Xi符号串编码的取值范围 应用实例:待编码符号串为X1,X2,X3,X4,X5算术编码处理过程的编码区间分配可用图解法表示: 以少代多思想:用最终求得的编码表示范围子区间的任何值(如:0.10603),来替代被编码符号串X1X2X3X4X5无论是否是二元信源,也不论数据的概率分布如何,算术编码可以二进制小数表示,其平 均码长可以接近无损压缩的熵极限。因此:算术编码的发展历史:1960年,P. Elias首先提出把这种依附Shannon编码概 念推广到对符号序列直接编码上,推出了所谓的算 术编码(Arithmetic Coding);1948年, Shannon提出将信源

8、依其概率降序排序, 用 符号序列累积概率的二进制表示对信源的编码; 1976年, R. Pasco和J.Rissanen 分别用定长的寄存器实 现了有限精度的算术编码; 1979年, Rissanen 和G.G. Langdon将算术编码系统化 ,并于1981年将AC推广应用到二值图像编码上,大大 提高了起压缩效率;1987年, Witten等人发表了一个实用的算术编码程序 (CACM87,后用于H.263); 同期IBM公司发表了著名的 Q-编码器 (后用于JPEG和JPIG); 设一个信源,它有两个符号a和b,出现的概率分别是p 和1p,设有一个基准区域0,1,对它进行划分,以便 与信源输

9、出序列相对应。abp1aabap1p+p(1-p)bbabaabap2bbab图A 符号序列与区域划分示意算术编码的基本原理ab0.81aaba0.810.96bbabaaba0.64bbabaaabab0.810.960.64bbaaba0.5120.7680.9920.928bbbbaa abbaab例设一个信源,它有两个符号a和b,出现的概率分别是0.8和 0.2,有3个符号输出时,符号序列与区域划分的对应关系。图B 3符号输出时的 符号序列与区域划分示意字符串 aabaa对应的区域为 0.512,0.59392)该区域的二进制表示 0.1000001,0.1001100 )二进制数0.

10、1001 输出编码 1001因此对于这个信源:H(X)=0.7219Huffman编码:算术编码:平均码长 R=0.8平均码长 R=1相比Huffman编码,算术编码的编码效率有明显提高。 对于长序列,理论上算术编码可以达到信源的熵。编码效率算术编码过程:依据字符的发生概率对码区间的分割过程(即子区间 宽度与正编码字符发生概率相乘的过程)。算术解码过程:只需知道最终编码区间中的某一个值就可以解码。算术编码每次递推都要做乘法,而且必须在一个信 源符号的处理周期内完成,有时难以实时,为此采 用了查表等许多近似计算来代替乘法。小结:固定编码模式概率统计与区间分配直接影响编码效率。自适应模式各符号的概

11、率初始值都相同,但依据实际 出现的符号而相应地改变。两种编码模式:算术编码的发展及应用 jpeg、mpeg-1和mpeg-2等国际标准采用的图像 压缩编码方案都是传统的“DCT+运动补偿+算术编 码”模式 JPEG2000、MQ算术编码器 嵌入位平面图像编码器EZW、SPIHT和SPECK中 也采用这种通用算法编码器算术码评述能够自适应地估计条件概率, 从信源的统计特性出发, 建立数据的概率模型。它不必预先定义信源的概率模型, 尤其适用于不可能进行概率统计的场合;适用于信源符号概率比较接近的场合,在几种主要的统计编码中(Huffman,LZ家族以及算术编码中),算术编码具有最高的压缩效率。优点:缺点:比霍夫曼编码复杂,特别是硬件实现;由于是变长码,也需要输入输出缓冲存储器,只适用于分段信息;误差扩散比分组码更严重,误码不会自动恢复,会一直延续下去,传输要求高质量的信道,或采用检错反馈重发的方式。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号