多媒体技术第2版第3章多媒体数据压缩编码技术

上传人:j****9 文档编号:57667642 上传时间:2018-10-23 格式:PPT 页数:91 大小:1.15MB
返回 下载 相关 举报
多媒体技术第2版第3章多媒体数据压缩编码技术_第1页
第1页 / 共91页
多媒体技术第2版第3章多媒体数据压缩编码技术_第2页
第2页 / 共91页
多媒体技术第2版第3章多媒体数据压缩编码技术_第3页
第3页 / 共91页
多媒体技术第2版第3章多媒体数据压缩编码技术_第4页
第4页 / 共91页
多媒体技术第2版第3章多媒体数据压缩编码技术_第5页
第5页 / 共91页
点击查看更多>>
资源描述

《多媒体技术第2版第3章多媒体数据压缩编码技术》由会员分享,可在线阅读,更多相关《多媒体技术第2版第3章多媒体数据压缩编码技术(91页珍藏版)》请在金锄头文库上搜索。

1、2018/10/23,陈文华,1,多 媒 体 技 术,电子教学课件,第3章,2018/10/23,陈文华,2,第3章 多媒体数据 压缩编码技术,3.1 多媒体数据压缩编码的重要性 3.2 预测编码技术 3.3 哈夫曼编码技术 3.4 行程(游程)RLE编码技术 3.5 静态图像压缩编码国际标准JPEG 3.6 运动图像压缩编码国际标准MPEG,2018/10/23,陈文华,3,第3章 多媒体数据 压缩编码技术,3.1 多媒体数据压缩编码的重要性3.1.1 数据冗余类型3.1.2 数据压缩技术的分类,2018/10/23,陈文华,4,第3章 多媒体数据 压缩编码技术,3.1 媒体数据压缩编码的重

2、要性信息时代的重要特征是信息的数字化。早期的计算机系统采用模拟方式表示信息,但存在着明显的缺点: 经常会产生噪音和信号丢失,并且在复制过程中逐步积累噪音和误差。 模拟信号不适合数字计算机加工处理。,2018/10/23,陈文华,5,3.1 媒体数据压缩 编码的重要性,数字化后未经压缩的视频和音频等媒体信息的数据量是非常大的1. 图像数据量的大小可用下面的公式来计算:图像数据量图像的总像素色彩深度8 (单位为Byte,简写为B) 例如,一幅640480、24位(bit)真彩色的图像,其文件大小为: 64048024 8 921.6KB,2018/10/23,陈文华,6,3.1 媒体数据压缩 编码

3、的重要性,2. 双通道立体声激光唱盘,采用脉冲码调制采样,采样频率为44.1KHz,采样精度16位,其一秒钟时间内的采样数据量为:44.110001628176.4 KB 一个650MB的CDROM,大约可存1小时的音乐。,2018/10/23,陈文华,7,3.1 媒体数据压缩 编码的重要性,3. 对动态图形和视频图像。例如对于彩色电视信号,设代表光强Y的带宽为4.2MHz、色彩I为1.5MHz和色饱和度Q为0.5MHz,采样频率2倍原始信号频率,各分量均被数字量化为8位,从而1秒钟电视信号的数据量为:(4.21.50.5)281000000812.4 MB,2018/10/23,陈文华,8,

4、3.1 媒体数据压缩 编码的重要性,容量为650MB的CDROM仅能存1分钟的原始电视数据。若为高清晰度电视(HDTV)其1秒钟数据量约为1.2GB,一张CDROM还存不下1秒钟的HDTV图像。巨大数字化信息的数据量对计算机存储资源和网络带宽有很高的要求,解决的办法就是要对视、音频的数据进行大量的压缩。播放时,传输少量被压缩的数据,接收后再对数据进行解压缩并复原。,2018/10/23,陈文华,9,3.1.1 数据冗余类型,1. 空间冗余基于离散像素采样来表示物体颜色的方式通常没有利用景物表面颜色的这种空间相关性,这些相关性的光成像结构在数字化图像中就表现为空间冗余。我们可以通过改变物体表面颜

5、色的像素存储方式来利用空间相关性,达到减少数据量的目的。,2018/10/23,陈文华,10,3.1.1 数据冗余类型,2. 时间冗余时间冗余反映在图像序列中的相邻帧图像(电视图像、动画)之间有较大的相关性,一组连续画面中的相邻帧往往包含相同的背景和移动物体,只不过移动物体所在的空间位置略有不同,把一帧图像中的某物体或场景可以由其他帧图像中的物体或场景进行处理后重构出来,可以大大减少时间冗余。,2018/10/23,陈文华,11,3.1.1 数据冗余类型,3. 结构冗余有些图像具有较强的相似性的纹理结构,例如布纹图像和草席图像,方格状的地板图案等,我们称此为结构冗余。4. 知识冗余有许多图像的

6、理解与某些基础知识有相当大的相关性,这类规律性的结构可由先验知识和背景知识得到,我们称此类冗余为知识冗余。根据已有的知识,我们可以构造图像物体的基本模型,并创建图像库。,2018/10/23,陈文华,12,3.1.1 数据冗余类型,5. 视觉冗余 人的接收系统如视觉系统和听觉系统是有一定限度的,人眼并不能察觉图像场的所有变化,如人类视觉系统分辨能力约为64灰度等级,而一般图像量化采用256灰度等级,这类冗余我们称为视觉冗余。6. 听觉冗余 人耳的敏感性不能察觉所有频率的变化,存在听觉冗余。,2018/10/23,陈文华,13,3.1.2 数据压缩技术 的分类,根据多媒体数据冗余类型的不同,解码

7、后数据与原始数据是否完全一致、质量有无损失来进行分类,压缩方法可被分为有失真编码和无失真编码两大类。无失真压缩法也称无损压缩,无失真压缩的特点是压缩比较小,大约在2l至5l之间,主要用于文本数据、程序代码和某些要求严格不丢失信息的环境中,常用的无失真压缩编码有如哈夫曼编码等。,2018/10/23,陈文华,14,3.1.2 数据压缩技术 的分类,有失真压缩法也称有损压缩,有失真压缩法的冗余压缩取决于初始信号的类型、前后的相关性、信号的语义内容等,压缩比可以从几到几百倍,常用的有失真压缩编码技术有预测编码、变换编码、模型编码、混合编码方法等。主要用于压缩图像、声音等信息。,2018/10/23,

8、陈文华,15,常用的图像和视频压缩方法如图3-1所示:,图像和视频压缩方法,哈夫曼编码 行程编码 算术编码 LZW编码,DCT编码 小波变换 子带编码,无失真压缩,有失真压缩,预测编码,变换编码,模型编码,运动补偿,混合编码,分形编码,JPEG MPEG H. 261,3.1.2 数据压缩技术 的分类,2018/10/23,陈文华,16,3.2 预测编码技术,根据离散信号之间存在着一定的相关性的特点,利用图像像素的以往样本值(前面一个或几个点的数据)对于新样本值(下一个点的数据)进行预测,然后将样本的实际值与其预测值相减得到一个误差值(较小),这样可以用比较少的数码进行编码得到较大的数据压缩结

9、果,达到压缩数据的目的,因此预测编码技术是一种有失真编码方法。,2018/10/23,陈文华,17,最常用的是差值脉冲编码调制法,简称为DPCM。图3-2所示的是DPCM编、解码系统原理图,3.2 预测编码技术,2018/10/23,陈文华,18,3.2 预测编码技术,设xn为tn时刻的亮度取样值,预测器根据tn时刻之前的样本值x1,x2,xn-1对xn作预测,得到预测值xn,xn 与xn之间的误差为:enxnxn (31)接收端恢复的输出信号为xn是xn的近似值,两者的误差是: xnxnxnxn十en(xn十en)enen (32),2018/10/23,陈文华,19,3.2 预测编码技术,

10、在预测编码中,量化器的量化对像是预测误差 enen分布在零值附近,正负两边的分布一般是对称的,图3-3 预测误差分布特性示意图。,图3-3 预测误差分布示意图,2018/10/23,陈文华,20,量化输出,输入电平,非均匀量化间隔,非均匀量化器,2018/10/23,陈文华,21,3.2 预测编码技术,非均匀量化器对于具有相同的输入信号动态范围、相同的图像主观评价质量下,输出的比特数较低。预测编码系统的缺点:预测误差的量化是造成图像质量下降的主要原因,比如在图像边界斜率过载,表现为图像轮廓变模糊;因最小量化电平不够小(量化位数不够高),使图像灰度缓变区产生颗粒噪声。,2018/10/23,陈文

11、华,22,3.3 哈夫曼编码技术,假设一个信息源能产生的事件序列中的事件取自一个有限事件集,事件集S中的任一事件Si发生的概率为P(Si)都相等,即P(Si) 1/S,则其所能携带的信息量I(Si)定义为: I(Si)log2 1/S log2 P(Si)(33) 这里P(Si)是信息源产生的事件为Si的概率。等式右边加一负号的目的是保证I(Si)的数值不为负值。定义中用2为底的对数,并规定信息量I(Si)的计量单位为比特(bit)。,2018/10/23,陈文华,23,3.3 哈夫曼编码技术,如果一个信息源发出的是由8个二值数(0,1)表示的组合信息。如果这种组合是等概率的,即P(Si) 1

12、/256,(i0,1,2,255),则此8个数字提供的信息量按(33)式计算:I(Si)log2 1/256 log2 1 十 log2256 8(bit) (34)组合的总数是256种可能,每一种可能的组合为8比特。如果上述256种可能组合中是非等概率的,可以证明信息量I(Si)将小于8(bit)的。,2018/10/23,陈文华,24,3.3 哈夫曼编码技术,离散无记忆(不受其前面事件出现与否的影响)信息源中一个事件所携带的平均信息量H(S)定义为: (35)平均信息量又称为信息熵,熵实际上是信源事件集中各事件所携带的信息量的数学期望。熵值的单位是比特。 数据压缩的另一个基本途径则是去清除

13、联合信源中各信源间的相关性。,2018/10/23,陈文华,25,3.3 哈夫曼编码技术,哈夫曼编码利用了以上原理,属于一种变字长码,把信息源事件按概率大小顺序排列,对出现概率大的信息源事件赋予短码字,而对于概率小的信息源事件赋予长码,只要码字长度按照信息出现的概率大小逆顺序排列,可通过数学证明这一结论:平均码字长度一定小于其它任何事件顺序的排列方式。,2018/10/23,陈文华,26,3.3 哈夫曼编码技术,哈夫曼编码一般过程如下:1. 把事件(消息)按出现的概率由大到小排成一个序列。如P(1)P(2)P(3)P(Sm-1)P(Sm) ,即将信息源事件按概率递减顺序排列。2. 把其中两个最

14、小的概率P(Sm-1) ,P(Sm)挑出来,且将事件“1”赋给其中最小的,即P(Sm)1;事件“0”赋给另一稍大的即P(Sm-1) 0。,2018/10/23,陈文华,27,3.3 哈夫曼编码技术,3. 把两个最小概率相加作为新事件的概率,即求出P(Sm-1) ,P(Sm)之和P(Si): P(Si) = P(Sm-1) 十P(Sm) 设P(Si)是对应于一个新的消息的概率。4. 将P(Si)与上面未处理的(m2)个消息P(Sm-2)的概率重新由大到小再排列,构成一个新的概率序列。5. 重复步骤2),3),4),在每次合并信息源时,将被合并的信源分别赋“0”和“1”直到所有m个事件的概率均已全

15、部合并处理为止。,2018/10/23,陈文华,28,3.3 哈夫曼编码技术,6. 寻找从每一个信息源事件到概率总和为1处的路径,对每一信息源事件写出“1”、“0”序列(从树根到信息源事件节点)作为码字。 Huffman编码的平均码字长度可以用下列公式求出:(36)这里的ni ,为第i个消息事件的码字长度,P(Si)为第i个消息出现的概率。举一例子来说明这一编码过程。 表3-1 信息源消息事件及其对应的概率,2018/10/23,陈文华,29,3.3 哈夫曼编码技术,图3-5 哈夫曼编码全过程:,F,2018/10/23,陈文华,30,3.3 哈夫曼编码技术,根据哈夫曼的编码规则,我们得到如表3-2所示:由于8个消息事件A,B,C,H的每个概率为已知,则哈夫曼码的平均长度L可按公式(3-6) 计算为: L10.4十3(0.180.10)4(0.10十0.06十0.07)十5(0.05十0.04)2.61比特,2018/10/23,陈文华,31,3.3 哈夫曼编码技术,图像的熵H(S)可按公式(3-5) 计算为:定义编码效率为熵值H(S)与平均码长L的比值,即:编码效率 (3-7) =2.55/2.61 97.8 % 哈夫曼编码有它的不足之处: 必须先得到信息源码元(消息)的统计概率,才能进行编码。折中的方法是根据经验值人为地给出Huffman码表,但这样的编码无法达到最佳。,

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 中学教育 > 初中教育

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号