第4章图像压缩编码

上传人:今*** 文档编号:109999599 上传时间:2019-10-28 格式:PPT 页数:48 大小:576.50KB
返回 下载 相关 举报
第4章图像压缩编码_第1页
第1页 / 共48页
第4章图像压缩编码_第2页
第2页 / 共48页
第4章图像压缩编码_第3页
第3页 / 共48页
第4章图像压缩编码_第4页
第4页 / 共48页
第4章图像压缩编码_第5页
第5页 / 共48页
点击查看更多>>
资源描述

《第4章图像压缩编码》由会员分享,可在线阅读,更多相关《第4章图像压缩编码(48页珍藏版)》请在金锄头文库上搜索。

1、1,第五章 图像压缩编码, 1 概述 2 熵编码方法 3 预测法编码 4 变换编码方法 5 二值图像编码 6 图像压缩编码主要国际标准,2, 1 概述,图像压缩编码问题的提出 在图像数字化中,若对图像的取样值以最基本和最简单的PCM编码(pulse coding modulation脉冲编码调制),这样获得的图像数据量(比特数)将非常具大。减少量化级数即编码比特数b,势必又引起量化信噪比 大大下降,3,1. 几种图像的数据量:,计算机图像处理中的数字图像其灰度多数用8bit来度量,一 幅最简单的黑白照片,若按512512点阵取样,表示这幅图像的二 进制数据量:,5125128=2048Kbit

2、= 2Mbit=256KB,而医学图像处理和其他科研应用的图像的灰度量化可用到 12bit以上,因而所需数据量太大。,10241024 12 =12Mbit,遥感图像如SAR图像用8bit量化,100公里X100公里,10m 分辨率的图像的大小为10000X10000。这样一个地区的图像需 108B以上。这无疑对图象的存储、处理、传送带来很大的困 难。,4,2. 图像压缩的主要目的:,传输 与 存储,从传送图像的角度来看:,某些图像采集有时间性;,图像存储体的存储时间也有限制。它取决于存储器件的最短存 取时间,若单位时间内大量图像数据来不及存储,就会丢失信息。,从图像存储的角度:,通过压缩可以

3、减少存储设备的用量,产生经济效益。,5,图像中像素之间,行或帧之间都存在着较强的相关性,3. 图像数据压缩的可能性:,从统计观点出发,简单直观地讲,就是某个像素的灰度值,总是和其周围的其他像素灰度值某种关系,应用某种编码方法提供并减少这些相关特性,使可实现图像信息的数据压缩。 从信息论观点出发,就是减少图像信息中无用的冗余信息,仍然保留有效信息,这样既减少了描述信息的数据量,又保证图像有效信息没有丢失,实现所谓信息保持编码。 从另一种角度出发,图像信息的信宿往往是人眼,而人的视觉系统接受信息的能力是有限的,如灰度和空间分辨率都不能太高。即使是纪录或显示设备,也往往受本身特性的限制,只能接受某种

4、程度量的信息,而并不能全部接受,如电视监视器其灰度特性、空间分辨率都是很有限的。,6,4. 数字图像数据压缩按应用不同可分为三类:,(1) 信息保持编码(无误差编码) 它要求压缩图像的比特数而不丢失任何信息。主要用在图像信息保存中,要求图象存储能保持信息并能快速存取图象。例如短时随机存取主要用于处理过程中的各个环节的存储,它要求经过不同存储介质多次重复不变质、不失真。,(2) 保真度编码(非信息保持编码) 传送图像应能适应通信的通道限制,若接收端是人观看的情况,由于人眼的生理特性不需过高的空间分辨率和灰度分辨率,因此在压缩过程中允许丢失一些人感觉不到的信息,这就是一种允许微量失真的图像压缩,数

5、字电视、图像传输和多媒体中常用这种压缩。,(3) 特征抽取(保持)编码 许多图像处理的目的是为了计算机的识别、分析、控制,这时并不需要图像的全部细节及灰度细节。只要能保存图像中的感兴趣的特征信息,无用信息都可丢掉。,7, 2 熵编码方法,特例:肯定发生的事:H0,一. 基本概念,1. 图像熵,假定图像中的各像素间取何种灰度级是相互独立的,称为无记忆 信息熵值或0阶熵,记为: 。,设数字图像像素灰度级集合为(W1,W2,WM),其对应的 概率分别(P1,P2,PM),按信息论中信源信息熵定义,数字图 像的熵H为:,8,2. 平均码字长度,给(W1,W2,WM)每个灰度级赋予一个编码Ck,称为码字

6、, 其中 k=1,2,M (二进制) ,。,设 为数字图像第k个码字Ck的长度(二进制代码的位数)。其相应出现的概率为Pk,则数字图像所赋予的码字平均长度R为:,9,3. 编码效率:,式中H为信源熵,R为平均码字长度,根据信息论信源编码理论,可以证明:,总可以设计出某种无失真编码方法,表明这种方法效率很低,占用比特数太多,为最佳编码,丢失信息图像失真,10,在变长编码中,对出现概率大的信息符号赋予短码字,而对于出现概率小的信息符号赋予长码字,如果码字长度严格按照所对应符号出现概率大小逆序排列,则编码结果平均码字长度一定小于任何其他排列方式。,定理内容:,4. 变长最佳编码定理,11,设:,可变

7、长度编码所用码元进制为D(一般为2), 被编码的信息符号总数为N, 第i个符号出现的概率为 , 与其对应的码字长度为,5. 可变长度最佳编码的平均码字长度,12,由此可以引导出对某一个信息符号存在下式,对二进制码进一步简化为:,可见码字长度是由信息符号出现的概率来决定的。这就是下面要介绍的香农编码方法理论基础,13,(a)续长代码和非续长代码 非续长代码:不能在某一代码后面添加一些码元而构成另一个码字。 例如:0,10,11是非续长代码; 0,01,11是续长代码。,6. 唯一可译编码,为了减少表示图像的平均码字长度,对码字之间往往不加同步 码,这样就要求所编码字序列能被唯一译出来。满足这个条

8、件的编码 称为唯一可译编码,或单义可译码。,(b)单义代码 任意有限长的码字序列,只能被唯一地分割成一个个码字。 单义代码的充要条件是满足克劳夫特(kraft)不等式:,14,例如:,15,二. 哈夫曼(Huffman)编码方法(紧凑码),哈夫曼编码的一般算法如下: (1) 按符号出现的概率从大到小排序。 (2) 把最小的两个概率相加合并成新的概率, 与剩余的概率组成新的概率集合。 (3) 对新的概率集合重新排序, 再次把其中最小的两个概率相加, 组成新的概率集合。如此重复进行, 直到最后两个概率的和为1。 (4) 分配码字。码字分配从最后一步开始反向进行, 对于每次相加的两个概率,给大的赋“

9、0”, 小的赋“1”(也相反, 如两个概率相等, 则从中任选一个赋“0” ), 读出时由该符号开始一直走到最后的概率和“1”, 将路线上所遇到的“0”和“1”按最低位到最高位的顺序排好,就是该符号的哈夫曼编码。,16,例一:,17,编码效率计算:,18,仔细看一下编码过程:,19,例二:,20, 对不同概率分布的信源,哈夫曼编码的编码效率有所差别。根据信息论中信源编码理论,对于二进制编码,当信源概率为2的负幂次方时,哈夫曼编码的编码效率可达100%,其平均码字长度也很短,而当信源概率为均匀分布时, 其编码效果明显降低。在信源概率接近于均匀分布时,一般不使用哈夫曼编码。,结论:,21,香农-范诺

10、(Shannon-Fannon)编码也是一种常见的可变字长编码。与哈夫曼编码相似,当信源符号出现的概率正好为2-i(i0)时,采用香农-范诺编码同样能够达到100%的编码效率。香农-范诺编码的理论基础是符号的码字长度ti完全由该符号出现的概率来决定,即:,三.香农-范诺(Shannon-Fannon)编码,22,(1)输入灰度级按出现的概率从大到小排列; (2)计算码字长度; (3)计算累加概率; (4)十进制转换为二进制; (5)去掉多余尾数。,编码步骤:,23,编码效率计算:,根据:,24,算术编码是一种从整个符号序列出发,采用递推形式连续编码的方法。它将一个符号序列映射为一个实数。算术编

11、码中,单个源符号和码字间的一一对应关系并不存在。,四. 算术编码方法,算术编码是60年代初期提出:,在信源概率分布比较均匀情况下,它的编码效率高于哈夫曼编码。,1. 算术编码的方法,如何给每个信源符号赋予非整数个比特?,25,例52 已知信源 ,试对l011进行算术编码。,26,(4)初始子区为0, 1,编码算法: 步序 符号 子区左端 子区长度 a 1 0+ 14*1 =1/4 1 * 34 = 3/4 b 0 1/4+0*3/4 = 1/4 3/4 *1/4 = 3/16 c 1 1/4+1/4*3/16 = 19/64 3/16 * 3/4 = 9/64 d 1 9/64+1/4*9/6

12、4 = 85/256 9/64 * 3/4 = 27/256,(3) 在编码运算过程中,随着消息符号的出现,子区按下列规则缩小: 规则A:新子区左端前子区左端十当前符号子区左端前子区长度 规则B:新子区长度前子区长度当前符号子区的长度。,27,最后的子区左端(起始位置): B(85256)d (0.01010101)b 最后的子区长度: L(27/256)d(0.00011011)b 最后的子区右端(子区间尾): 85/256+27/256(716)d (0.0111)b 编码结果为子区间头尾之间取值、其值为0.011,可编码为011,原来4个符号1011被压缩为三个符号011。,28,1个算

13、术码字要赋给整个信源符号序列,而码字本身确定0和1之间的1个实数区间。 随着符号序列中的符号数量增加,用来代表它的区间减小而用来表达区间所需的信息单位(如比特)的数量变大。每个符号序列中的符号根据区间的概率减少区间长度。与哈夫曼方法不同,这里不需要将每个信源符号转换为整数个码字(即1次编1个符号),在理论上它可达到无失真编码定理给出的极限。 解码过程是逆过程,首先将区间0,1按Qc靠近0侧, Pc靠近1侧分割成两个子区间,判断被解码字落在哪个子区,而赋予对应符号。,注:,29,二值图像: 只有两个灰度级的图像,即图像内容“非白即黑”。典型的有传真。 二值图像直接编码: 如每一个像素用一位二进制

14、码(0或1)代表就称为编码。 分辨率: 单位长度的像素数。 CCITT(国际电话电报咨询委员会)建议在传真中采用两种分辨率: 1728像素行(8取样mm),385行mm; l728像素行(8取样mm), 7.7行mm。,一. 概述, 3 二值图像编码,30,设Cr为采用某种方法编码前后的压缩比: 取决于图像内容、分辨率、编码方法。 二值图像编码压缩一般采用熵编码。,31,WBS编码:,二. 跳过白色块编码(White Block Skipping,WES),将图像的每条扫描线分成若干段,每段有N个像素。对全部是白色的像素用1bit“0”表示。 对于至少有一个黑色像素的像素段采用N十1个比特编码

15、即第一个比特人为地规定为1其余的N比特采用直接编码(白色为“0”黑色为“1”码字)。,1.一维WBS编码,跳过白色区域,对黑色像素编码这样表示这些图像的比特数将减少,每个像素平均比特数也就可以减少。,32,一维WBS编码平均码字长度为 PN:段长为N的全白像素段出现的概率。b41.25-P4。全白概率必须大于14才可能获得压缩效果。 段长N不同,全白概率也不同。为了获得最小的平均码字长度,对给定的一幅二值图像应有一个最佳N值,不同图像的最佳段长N值不同。,33,一维WBS编码可以方便地推广到二维。 一维的像素段 二维中像素块 假设像素块尺寸为MN,全部为白色的像素块用“0”表示,非全白像素块用

16、(MN+1)个比特码表示。其中第一个比特为“1”。其余MN个比特采用直接编码。,2. 二维WBS编码,34,二值图像的自适应WBS编码: 根据图像的局部结构或统计特性,改变其像素块尺寸大小、则WBS编码所用的比特数一定会更少。 自适应增加了设备的复杂性。实际选用时要根据应用要求和具体图像内容综合考虑其经济性和有效性。,3. 自适应WBS编码,35,二值图像的扫描行,是由若干段连着的黑像素和连着的白保素组成,分别称其为“黑长”和“白长”。 例:0001001100 w3,b1,w2,b2,w2 游程长度编码: 对黑长、白长长度按其发生概率分配以不同长度码字。 设某二值图像中有长度为1,2,N等不同长度的黑长与白长,N为一个扫描行的像素数。若不分黑

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号