基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc

上传人:博****1 文档编号:543292763 上传时间:2023-06-08 格式:DOC 页数:25 大小:401.50KB
返回 下载 相关 举报
基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc_第1页
第1页 / 共25页
基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc_第2页
第2页 / 共25页
基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc_第3页
第3页 / 共25页
基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc_第4页
第4页 / 共25页
基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc_第5页
第5页 / 共25页
点击查看更多>>
资源描述

《基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc》由会员分享,可在线阅读,更多相关《基于哈夫曼编码的图像编解码系统设计及实现-毕业设计.doc(25页珍藏版)》请在金锄头文库上搜索。

1、武汉理工大学信息处理课群综合训练与设计课程设计任务书题 目: 基于哈夫曼编码的图像编解码系统设计及实现初始条件:计算机Windows8操作系统MATLAB7.8.0软件要求完成的主要任务:设计哈夫曼编码的图像编解码系统、利用软件编写程序、仿真实现时间安排: 第1-18周:理论讲解第19周:理论设计,实验室安装调试以及撰写设计报告答辩: 时间:7月2日地点: 鉴主15楼通信实验室四 指导教师签名: 年 月 日系主任(或责任教师)签名: 年 月 日14目录目录I摘要IIABSTRACTIII1引言11.1图像数据压缩的目的11.2图像数据压缩的原理11.3常用的压缩编码方法32哈夫曼编码32.1

2、哈夫曼编码简介32.2哈夫曼编码步骤32.3 哈夫曼编码的缺点53基于哈夫曼编码的图像编解码系统的程序设计63.1 分块程序设计分析63.2主程序83.3程序函数83.3.1编码函数83.3.2解码函数123.3.3符号概率计算函数133.3.4节点添加函数143.3.5解码返回符号函数144系统仿真结果154.1程序运行结果154.2 程序运行结果分析165.总结18参考文献19摘要本论文首先介绍了图像压缩相关知识。随后,分析概述了哈夫曼压缩编码的原理及方法,并采用 MATLAB 软件对两幅图片进行压缩编码程序设计,获得压缩信息及哈夫曼编码表,分析压缩后的图像像素数据及压缩比。关键词: 图像

3、压缩;MATLAB;哈夫曼编码;无损压缩编码ABSTRACTThis paper firstly introduces the theoretical knowledge of image compression. Then, it analyses the principle and method of Huffman coding and using Huffman coding principle and methods, compression coding design is made for two images on the MATLAB software. Also gain

4、the compression information and Huffman coding table. Whats more, compressed image pixel data and compression ratio are analyzed. Key words: Image compression; MATLAB; Huffman encoding; Lossless compression coding1引言1.1图像数据压缩的目的数字图像通常要求很大的比特数,这给图像的传输和存储带来相当大的困难。要占用很多的资源,花很高的费用。一般原始图像中存在很大的冗余度。例如1;一幅

5、512x512的灰度图象的比特数为512x512x8=256k 。例如2;一部90分钟的彩色电影,每秒放映24帧。把它数字化,每帧512x512象素,每象素的R、G、B三分量分别占8 bit,总比特数为90x60x24x3x512x512x8bit=97,200M。 例如3:一张CD光盘可存600兆字节数据,这部电影光图像(还有声音)就需要160张CD光盘用来存储。所以,对图像数据进行压缩显得非常必要。而通常用户通常允许图像失真;当信道的分辨率不及原始图像的分辨率时,降低输入的原始图像的分辨率对输出图像分辨率影响不大;用户对原始图像的信号不全都感兴趣,可用特征提取和图像识别的方法,丢掉大量无用

6、的信息;提取有用的信息,使必须传输和存储的图像数据大大减少。在以上的条件下,其为数据压缩提供了可能性。图像数据压缩的目的是在满足一定图像质量条件下,用尽可能少的比特数来表示原始图像,以提高图像传输的效率和减少图像存储的容量。在信息论中称为信源编码。1.2图像数据压缩的原理 对数字图像进行压缩通常利用两个基本原理:一是数字图像的相关性。在图像的同一行相邻象素之间,相邻象素之间,活动图像的相邻帧的对应象素之间往往存在很强的相关性,去除或减少这些相关性,也即去除或减少图像信息中的冗余度也就实现了对数字图像的压缩。帧内象素的相关称做空域相关性。相邻帧间对应象素之间的相关性称做时域相关性。二是人的视觉心

7、理特征。人的视觉对于边缘急剧变化不敏感(视觉掩盖效应),对颜色分辨力弱,利用这些特征可以在相应部分适当降低编码精度而使人从视觉上并不感觉到图像质量的下降,从而达到对数字图像压缩的目的。图像压缩是通过删除图像数据中冗余的或者不必要的部分来减小图像数据量的技术,压缩过程就是编码过程,解压缩过程就是解码过程。压缩技术分为无损压缩和有损压缩两大类,前者在解码时可以精确地恢复原图像,没有任何损失;后者在解码时只能近似原图像,不能无失真地恢复原图像。假设有一个无记忆的信源,它产生的消息为ai,1iN,其出现的概率是已知的,记为P(ai)。则其信息量定义为:由此可见一个消息出现的可能性越小,其信息量就越多,

8、其出现对信息的贡献量越大,反之亦然。信源的平均信息量称为“熵”(entropy),可以表示为:对上式取以2为底的对数时,单位为比特(bits):根据香农(Shannon)无噪声编码定理,对于熵为H的信号源,对其进行无失真编码所可能达到的最低比特数为,这里为一任意小的正数,因此可能达到的 最大压缩比:其中B是原始图像的平均比特率。在图像压缩中,压缩比是一个重要的衡量指标。可以定义压缩比为:图像的平均码字长度R为:编码效率定义为:信息冗余度为:1.3常用的压缩编码方法图1-1常用的压缩编码方法2哈夫曼编码2.1 哈夫曼编码简介哈夫曼编码是哈夫曼博士在1952 年根据可变长最佳编码定理提出的, 它依

9、据信源数据中各信号出现的频率分配不同长度的编码。即,对于出现概率大的信息符号编以短字长的码,对于出现概率小的信息符号编以长字长的码。采用哈夫曼编码方法的实质是针对统计结果对字符本身重新编码,而不是对重复字符或重复子串编码,得到的单位像素的比特数最接近图像的实际熵值。它是一种无损编码方法。2.2哈夫曼编码步骤其具体步骤如下:1.将信源符号按出现概率从大到小排成一列,然后把最末两个符号的概率相加,合成一个概率。2.把这个符号的概率与其余符号的概率按从大到小排列,然后再把最末两个符号的概率加起来,合成一个概率。 3.重复上述做法,直到最后剩下两个概率为止。4.从最后一步剩下的两个概率开始逐步向前进行

10、编码。每步只需对两个分支各赋予一个二进制码,如对概率大的赋予码0,对概率小的赋予码1。例如:假设信源符号为【a、b、c、d、e、f、g】,其出现的概率相应的为【0.25、0.025、0.025、0.05、0.35、0.25、0.05】,一共7个字符,对其进行哈夫曼编码,算法如下:首先按照每个字符出现的频率大小从左到右排列:0.35、0.25、0.25、0.05、0.05、0.025、0.025;选出最小的两个值作为叶子节点构成一棵二叉树,值较大的叶子节点在左,两个叶子节点对应的频率之和作为根节点。把原排列中最小的两个节点删除,新的根节点插入排列保持大小从左到右的排列顺序不变;重复执行2),直到

11、最后得到值为1 的根节点。得到一棵哈夫曼树,如下图所示:图 2.1哈夫曼编码树在得到的哈夫曼树上左分支标记1,右分支标记0,所有的字符根据其频率标记到对应的叶子节点上,从根节点到叶子节点路径上遇到的0、1 字符串即为对应叶子节点所在字符的编码。a、b、c、d、e、f、g七个字符的哈夫曼编码分别是:10、0001、0000、0011、11、01、0010,可以看到,符号只能出现在树叶上,任何一个字符的路径都不会是另一字符路径的前缀路径。2.3 哈夫曼编码的缺点哈夫曼编码虽然是最佳编码,但存在一些缺点,具体如下:(1)对于过短的文件进行编码,意义不大。因为存储哈夫曼树的信息需要一定的存储空间;(2

12、)利用哈夫曼编码,若用于通信网络,会引起较大的延时;(3)对较大文件进行编码,会出现频繁的磁盘读写访问,降低了数据编码的速度。3基于哈夫曼编码的图像编解码系统的程序设计3.1 分块程序设计分析(1)首先,寻找出现的所有元素,接着计算各元素出现的概率,并将元素按照出现概率排列,产生码字。部分程序如下:function huffcode,info=codeing(vector)p=probability(vector); %计算各元素出现的概率simbols=find(p); %寻找出现的所有元素p=p(simbols);p,sortindex=sort(p); %概率从小到大排列simbols=

13、simbols(sortindex);%将元素按照出现概率排列len=length(simbols);%产生码字(2)把出现的元素概率最小的两个相加合并成新的概率,与剩余的概率组成新的概率集合,直到剩下最后两个概率。部分程序如下:while length(p)1;index1=simbols_index1;index2=simbols_index2;codeword_tmp (index1) =addnode (codeword_tmp(index1),uint8(0);codeword_tmp (index2) =addnode (codeword_tmp(index2),uint8(1);

14、p=sum(p(1:2) p(3:end);simbols_index =index1 index2 simbols_index(3:end);p,sortindex=sort(p);%将数据重新排列simbols_index=simbols_index(sortindex);(3)从最后一步开始反向进行分配码字,对于每次相加的两个概率,给大的赋“0”,小的赋“1”,存储到一个稀疏矩阵,最后写出01 序列的哈夫曼编码。部分程序如下:pad=8-mod(len,8);if pad0;string=string uint8(zeros(1,pad);endcols=length(string)/8;%计算压缩后的向量string=reshape(string,8,cols);weights=2.(0:7);huffcode =uint8 (weights*double (string);% 编码字符串凑成一个%字节一个字节存在huffcodecodeword=codeword(simbols);%保存实际有出现元素对应的码字(4)把整字节存储的huffcode 一位一位取出,转为字符串,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号