多媒体数据压缩讲解

上传人:最**** 文档编号:117923515 上传时间:2019-12-11 格式:PPT 页数:105 大小:570KB
返回 下载 相关 举报
多媒体数据压缩讲解_第1页
第1页 / 共105页
多媒体数据压缩讲解_第2页
第2页 / 共105页
多媒体数据压缩讲解_第3页
第3页 / 共105页
多媒体数据压缩讲解_第4页
第4页 / 共105页
多媒体数据压缩讲解_第5页
第5页 / 共105页
点击查看更多>>
资源描述

《多媒体数据压缩讲解》由会员分享,可在线阅读,更多相关《多媒体数据压缩讲解(105页珍藏版)》请在金锄头文库上搜索。

1、第三章 多媒体数据压缩 本章提纲 多媒体数据压缩的概念和分类 常用的压缩编码方法 音频压缩标准 图像和视频压缩标准 3.1 多媒体数据压缩的概念和分类 多媒体数据压缩的重要性 数据冗余的类型 数据压缩技术的性能指标 数据压缩方法的分类 3.1.1 多媒体数据压缩的重要性 多媒体数据压缩编码是信息产业的关键 技术 F多媒体技术最大的难题是海量数据存储 F以及电视信息数字化之后的数据传输 数据量是否等于信息量 电视信号 F512*512*8*3=6291456=6.3Mb/s F6.3*30fps=188Mb/s F188/8=23.5MB/s F650MB光盘/23.5=27.5s 语音信号 F

2、正常人说话频率20Hz-4KHz F采样定律 F采样精度8位 F4KHz*2*8 =64Kb/s=8KB/s F与电视信号相比 23.5MB/8KB=3000倍 陆地卫星 F陆地卫星(Land Sat-3)其水平和垂直分辨 率分别为2340和3240,四波段,采样精度7位 F2340*3240*4*7=212Mb F按每天30幅计,每天数据量为 212*30=6.36Gb F每年的数据量高达2300Gb 如此巨大的数据量给存储器的传输容量、通 信干线的信道传输率以及计算机的运算速度 都增加了极大的压力 单纯用扩大存储容量、增加通信干线的信道 传输率是不现实的 数据压缩是行之有效的方法 信息量和

3、数据量的关系 I=D-du I:信息量 D:数据量 du:冗余量 3.1.2 数据冗余的类型 冗余:信息存在的各种性质的多余度。 冗余例子 F中文广播员一分钟180个汉字,一个汉 字2个字节,共360字节 F采样一分钟:8k*60*8/8=480kB/分钟 F480kB/360B=1000倍冗余 冗余例子 F中文百科全书扫描进计算机 F200万字*2=4MB FB5扫描(182*257mm 300dpi 12pixel/mm) 185*257*12*12*8/8=6.84MB 200万字以1000页计算,数据量 6.84GB F图像、视频数据冗余量更大 数据冗余的类型 空间冗余 时间冗余 信息

4、熵冗余 视觉冗余 听觉冗余 结构冗余 知识冗余 1、空间冗余 在同一幅图像中,规则物体和规则背景 的表面物理特性具有相关性,在数字化 图像中表现为冗余 示例 空间冗余 统计上认为其像素的信息存在冗余,这是冗余 的一种。图像的冗余信息会产生生理视觉上的 多余度,去掉这部分图像数据并不影响视觉上 的图像质量,甚至对图像的细节也无多大影响 ,这说明数据具有可压缩性。 可以在允许保真度的范围内压缩待存储的图像 数据,以大大节省存储空间,同时在图像传输 时也会大大减少信道的负荷。 2、时间冗余 它反映在图像序列中就是相邻帧图像之间有 较大的相关性,一帧图像中的某物体或场景 可以由其它帧图像中的物体或场景

5、重构出来 。 示例 空间冗余和时间冗余是把图像信号看作 概率信号时所反映出的统计特性,因此 ,这两种冗余也被称为统计冗余。 3、信息熵冗余 信息量:从N个相等的可能事件中选出一个 事件所需的信息度量和含量 信息熵:指一堆数据所带的信息量,平均信 息量就是信息熵(entropy) 例如:从64个数中选出某个数。 F可先问是否大于32?从而消除半数的可能 F这样只需6次即可选出某个数 每提问一次得到1 bit信息量,在64个数中选 中某数所需的信息量是log2 64=6 bit 信息量:从N个相等的可能事件中选出一个事 件所需的信息度量和含量 信息量和事件出现的概率有关,概率越大, 信息量越小;概

6、率越小,信息量越大 I(x)=IP(x) =loga(1/P(x) =-logaP(x) 若a=2 则信息量度量单位为bit 若a=e 则信息量度量单位为nit 若a=10,则信息量度量单位为哈特莱 如果将信源所有可能事件的信息量进行平均 ,就得到了平均信息量。 信息熵 = 平均信息量 信息熵:指一堆数据所带的信息量,平均信息 量就是信息熵(entropy) 信息熵冗余 无失真编码定理: F无失真编码极限 = 信源所含平均信息量(熵) F信源编码时,当分配给第i个码元类的比特数 b(yi)=-logpi,才能使编码后单位数据量等 于其信源熵,即达到其压缩极限。 但实际中各码元类的先验概率很难预

7、知,比特 分配不能达到最佳。实际单位数据量dH(S) ,即存在信息冗余熵。 4、视觉冗余 人眼对于图像场的注意是非均匀的,人眼并 不能察觉图像场的所有变化。事实上人类视 觉的一般分辨能力为26灰度等级,而一般图 像的量化采用的是28灰度等级,即存在着视 觉冗余。 5、听觉冗余 人耳对不同频率的声音的敏感性是不同 的,并不能察觉所有频率的变化,对某 些频率不必特别关注,因此存在听觉冗 余 6、结构冗余 数字化图像中的物体表面纹理等结构往 往存在着冗余,这种冗余称为结构冗余 。当一幅图有很强的结构特性,纹理和 影像色调等与物体表面结构有一定的规 则时,其结构冗余很大。 例如,草席的纹理很规范清晰,

8、它的图 像就存在结构冗余。 7、知识冗余 由图像的记录方式与人对图像的知识差异所 产生的冗余称为知识冗余。 人对许多图像的理解与某些基础知识有很大 的相关性。 例如 F人脸的图像 F建筑物中的门、窗的形状、位置等等 F这类规律性的结构可由先验知识和背景知识得 到。人具有这样的知识,但计算机存储图像时还 得把一个个像素信息存入,这就是知识冗余。 3.1.3 数据压缩技术的性能指标 评价压缩技术的三个指标 l压缩比 l恢复效果 l压缩算法复杂度、速度 另外也必须考虑每个压缩算法所需的硬件和软 件。 无损压缩 (图象质量不变) 有损压缩 3.1.4 数据压缩方法分类 根据解码后数据与原始数据是否完全

9、一致可以分为两 大类: F无损压缩法:采用可逆编码方法实现的压缩称为 无损压缩。这种方法的解码图像与原始图像严格相 同,即压缩是完全可恢复的或没有偏差的。压缩比 在2:15:1,又称冗余压缩法,熵编码法 F有损压缩法;采用不可逆编码方法实现的压缩称 为有损压缩。这种方法的还原图像较之原始图像存 在一定的误差,但选择的压缩率应使视觉效果可被 接受。压缩比几十到几百。又称熵压缩法 数据压缩方法分类 数据压缩方法 预测编码 变换编码 统计编码(熵编码) F哈夫曼编码 F行程编码 F算术编码 其它:子带编码、运动估计 1、预测编码(Prediction Coding) 预测编码的基本原理 F是统计冗余

10、数据压缩理论的三个重 要分支之一,用预测编码减少数据时 间和空间的相关性 如果有一个数,通过数学模型能够精确地产 生数据源,则不需要传输这个数 通过以往的样本值 ,预测 ,将预测 值与实际值相减,对差进行编码 预测编码的基本思想 F建立一个数学模型,利用以往的样 本数据,对新样本值进行预测,将预 测值与实际值进行相减,对其差进行 编码 F差值很小,可以减少编码码位 典型的预测编码方法 FDPCM(Differential Pulse Code Modulation ):差分脉冲编码调制 FADPCM(Adaptive DPCM):自适应的差分 脉冲编码调制 1、预测编码 在多媒体通信的图像传输

11、上使用预测编码是 常用的方法,图像压缩中的“未来”是指下一 个像素、下一条线或下一帧,一般景物在这 三方面都有一定程度的冗余。 同一帧图像内,相邻像素之间的相关性比较 强,任何一像素均可以由与它相邻的且已被 编码的点来进行预测估计。 连续的若干帧中,“未来”的帧中也会有许多 地方保留了“过去”的部分,如背景或静止的 地方等。 1、预测编码 关键:建立一个理想的预测器(数学模型) 如果能找到一个数学模型完全代表数据源, 那么在接收端就能依据这一数学模型精确地 产生出数据。 但是,现实中的系统是无法找到一个完整的 、贴切的数学模型的。实际上能找到的最好 的预测器只能以某种最小化的误差对下一个 采样

12、作预测。 1、预测编码 优点 F可以去除数据的时间和空间冗余,直观 、简捷和易于实现,特别是用于硬件实现 。 F在传输速度要求很高的应用中,大多选 用此方法。 缺点 F预测方法的不足使压缩能力有限, DPCM一般只能压缩到2-4bit/像素。 2、变换编码(Transformation Coding ) 其实质是一种函数变换,从一个信号域变换 到另一个信号域,使其更适于压缩 该过程是可逆的 如将时域信号变换到频域,因为声音、图像 大部分信号都是低频信号,在频域中信号的 能量较集中,再进行采样、编码就可以压缩 数据。 2、变换编码 变换本身是可逆的,因而其也是一种无损 技术。然而,为了取得更满意

13、的结果,某些 重要系数的编码位数比其他的要多,某些系 数干脆就被忽略了。这样,该过程就成为有 损的了。 数学家们已经构造了多种数学变换。除了 傅里叶变换外,还有余弦、 Hadamard、 Haar、Karhunen-Loeve(K-L)变换。最实 用最常用的数学变换是离散余弦变换(DCT) 。 3、统计编码(熵编码) 原理:变字长编码定理 F若各码字长度严格按照所对应符号出现概 率的大小逆序排列,则其平均码长最小 根据变字长编码定理,概率大的用短码字 表达,反之用长码字表达。 统计编码的目的是减少符号序列的冗余度 ,提高符号的平均信息量。 3、统计编码 它根据符号序列的统计特性,寻找某种 方法

14、把符号序列变换为最短的码字序列 ,使各码元承载的平均信息量最大,同 时保证无失真地恢复原来的符号序列。 如数字序列: 742300000000000000000055 编码为: 7423Z1855 3、统计编码 典型的熵编码方法 F哈夫曼编码方法(利用信源概率分布特 性) F行程编码方法(利用相关特性) F算术编码(利用概率分布特性) 哈夫曼编码 Huffman在1952年提出了对统计独立信源达到 最小平均码长的编码方法,又称最佳码。从理论 上可以证明,这种编码具有即时性和唯一可译性 。 Huffman编码的基本原理是按信源符号出现的概 率大小进行排序,出现概率大的分配短码,反之 则分配长码。

15、 哈夫曼编码 求信息熵 F信源有4个符号 Xa1a2a3a4 概率1/21/41/81/8 信息熵: H(x)=-1/2log2(1/2)-1/4log2(1/4)-1/8log2(1/8)*2 =1/2+1/2+3/4=1.75 bit/字符 哈夫曼编码 编码步骤 F信源符号按概率大小排列 F出现概率最小的两个符号概率相加,合成 一个概率 F将合成概率看作一个新组合的符号概率, 重复上述做法,直到最后只剩下两个符号概率 为止 F反过来逐步向前编码,每一步两个分支, 各赋予一个 二进制代码 对信源进行Huffman编码 信源 a1 a2 a3 a4 概率 1/2 1/4 1/8 1/8 1/4 0 1 0 1 1/2 0 1 1 码字 0 10 110 111 平均码长L=1/2*1+1/4*2+1/8*3+1/8*3=1.75 bit/字符=H(x) 编码效率100% 码长 1 2 3 3 哈夫曼编码 编码码字长度不均匀 在信源符号概率不均匀时效率高;若信源符 号概率均匀,则不用huffman编码 行程编码(run-length coding) 又称运行长度编码或游程编码,该压缩算法 是将一个相同值的连续串用一个代表值和串 长来代替。 以图像编码为例,可以定义在特定方向上具 有相同灰度值的相邻像素为一轮,其延续长 度

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号