信息论与编码在现实中的运用

上传人:ni****g 文档编号:488212099 上传时间:2023-02-22 格式:DOCX 页数:4 大小:32.69KB
返回 下载 相关 举报
信息论与编码在现实中的运用_第1页
第1页 / 共4页
信息论与编码在现实中的运用_第2页
第2页 / 共4页
信息论与编码在现实中的运用_第3页
第3页 / 共4页
信息论与编码在现实中的运用_第4页
第4页 / 共4页
亲,该文档总共4页,全部预览完了,如果喜欢就下载吧!
资源描述

《信息论与编码在现实中的运用》由会员分享,可在线阅读,更多相关《信息论与编码在现实中的运用(4页珍藏版)》请在金锄头文库上搜索。

1、信息论与编码在现实中的运用之从信息论的观点来看学习中文与英文的难易比较学院:电气学院 专业:通信工程 姓名:孙大山 学号:1043031420教师:王忠【摘要】当今世界是一个充满信息的世界,没有信息的世界是混乱的世界。因而 信息十分重要,随着社会信息化进程的加速,人们对信息的依赖程度会越来越高。 为此,有关信息研究的科学信息论也就应运而生,其中研究信息论的佼佼者与先驱便是香农,他为信息论的发展做出了巨大贡献。为此,信息论也叫做香农 信息论。信息论自诞生现在不到60年的时间,在人类科学史上是短暂的,但他 的发展对学术界与人类社会的影响是相当广泛的。信息在信息化程度越来越高的 现代社会将起到越来越

2、重要的作用,是比物质和能量更为宝贵的资源。全面掌握, 理解运用它,有效的利用信息,更能为人类服务。就如,在日常学习英文与中文 中。【关键词】信息、香农信息论、学习中文、学习英文1、信息论的发展过程一般认为信息论的创始人是香农和维纳,但由于香农的贡献更大,所以更多人 认为香农更合适。维纳,美国数学家,控制论的创始人。1894年11月26日生 于密苏里州的哥伦比亚,1964年3月18日卒于斯德哥尔摩。维纳在其50年的 科学生涯中,先后涉足哲学、数学、物理学和工程学,最后转向生物学,并且在 各个领域中都取得了丰硕的成果,称得上是恩格斯颂扬过的、本世纪多才多艺和 学识渊博的科学巨人。他一生发表论文24

3、0多篇,著作14本,自传两本昔日 神童和我是一个数学家。维纳的主要成果有八个方面:建立维纳测度、引 进巴拿赫一维纳空间、位势理论、发展调和分析、发现维纳一霍普夫方法、提出 维纳滤波理论、开创维纳信息论、创立控制论。2、目前的发展香农信息论:信息概念的深化;网络信息理论和多重相关信源编码理论的发展和应用;通 信网的一般信息理论研究;信息率失真理论的发展及其在数据压缩和图像处理中 的应用;信息论在大规模集成电路中的应用;磁记录信道的研究等。纠错码理论: 在工程方面应用及最优编码方法研究。维纳信息论:对量子检测和估计理论、非 参数检测和估计理论以及非线性检测与估计理论的研究。3、信息论研究的问题:信

4、息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据 传输、密码学、数据压缩等问题的应用数学学科。信息论将信息的传递作为一种 统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息 论研究中的两大领域。这两个方面又由信息传输定理、信源一信道隔离定理相互 联系。香农被称为是“信息论之父”。人们通常将香农于1948年10月发表于贝尔 系统技术学报上的论文A Mat hema tical Theory of Communica tio(通信(19164302001.2.26的数学理论)作为现代信息论研究的开端。这一文章 部分基于哈里奈奎斯特和拉尔夫哈特利先前的成 果。在该

5、文中,香农给出了信息熵(以下简称为“熵”) 的定义:美国数学家、信息论的创 始人)H = E pilogpi i这一定义可以用来推算传递经二进制编码后的原信息所需的信道带宽。熵度量 的是消息中所含的信息量,其中去除了由消息的固有结构所决定的部分,比如, 语言结构的冗余性以及语言中字母、词的使用频度等统计特性。信息论中熵的 概念与物理学中的热力学熵有着紧密的联系。玻耳兹曼与吉布斯在统计物理学 中对熵做了很多的工作。信息论中的熵也正是受之启发。4、现实运用:Q在上述中我们已经知道熵度量的是消息中所含的信息量,其中去除了由消息的 固有结构所决定的部分,比如,语言结构的冗余性以及语言中字母、词的使用频

6、 度等统计特性。信息论中熵的概念与物理学中的热力学熵有着紧密的联系。Q为此我们就可以抓住语言结构的冗余性以及语言中字母、词的使用频度等统计 特性。使用香农信息论的信息量等观点,来研究一下中文与英文的信息量,从而 比较出学习这两种语言的难易程度。Q众所周知,学习英语比学习中文容易,这不是没有科学依据的,从信息论的角 度来看:信源符号的相关性与提供的平均信息量把多符号离散信源都用马尔可夫信源来 逼近,则记忆长度不同,熵值就不同,意味着平均每发一个符号就有不同的信息 量。log2n=H0 三 H1NH2 鼻三 Hm所以信源的记忆长度越长,熵值越小。当信源符号间彼此没有任何依赖关系且呈 等概率分布时,

7、信源熵达到最大值。即信源符号的相关性越强,提供的平均信息 量越小。自然语言信源:可以简单地将自然语信源定义为以人类的自然语言作为输出消息的信源。自然语言又可以分为书面语言和声音语言两大类-书面语言由一个个文字符号构成,是一种典型的离散信源,-也是信息论中首先讨论和研究最多的信源,-以英文和中文为例讨论书面语言,-声音语言的信源放在连续信源中讨论。英文信源-先将英文看成仅由26个字母和空格构成,即暂不考虑标点符号及其它。-英文中字母的组合构成单词,单词的组合构成句子,句子的组合构成段落和文 章。-在某一个统计集合中能得出其字母、单词、句子的分布概率。-通过大量统计可以得到26个字母和空格的出现概

8、率,它构成了英文字母和空格 的信源空间。-仅仅按照表中的出现概率随机构成的一串字母序列通常并不能构成英文单词,。 -其构成还有许多语法和修辞方面的制约,这种制约在数学关系上的反映就是其 关联性。中文信源,通常指汉字-由字组词、由词组句、由句成文的本质与英文一样-中文与英文的重要区别是每个单字都有明确的意义,而且数量巨大收入辞海的汉字有1.5万左右,收入康熙字典、汉语大字典分别超过了 4万个和6万个。-要给出汉字的信源空间,须对大量的汉字文献进行统计新华社曾对2亿左右的汉字作了统计,得出了 1850个汉字的使用率为98%当被统计的数量趋于无穷时,每个汉字的使用频率应该趋于平稳。可以用符号的联合概

9、率或条件概率来描述自然语信源的关联性。-对于英文,可以将包含K个字母的单词看成是具有K个字母的符号序列,或称为 K重符号序列,将其作为一个整体消息,其联合概率就已考虑了字母与字母间的 关联性了。-也可以把由汉字组成的中文词汇作为符号序列。-还可以将句子、段落甚至整篇文章分别作为符号序列来考虑,用联合概率来描 述。有了符号或符号序列的信源空间就可以度量它们出现时所给出的信息量,并可 以计算它们的信源熵。但无论是符号概率还是符号序列的联合概率都具有先验概率的性质,只能描述 静态的情形,不能描述动态的过程。条件概率描述了符号间的记忆特性,但它同时给出了符号间的转移特性,故也 称之为转移概率。-以用第

10、一个字母为T来构成3个字母的英文单词为例,第二个字母为H的概率可 以用条件概率P(H|T)来表示,第三个字母为E的概率可以用条件概率P(E|TH )来 表示,其它各种可能的组合也都可用其条件概率来表示。用转移概率来描述的信源就是一种典型的马尔可夫信源。*把英语看成是离散无记忆信源英语字母26个,加上一个空格,共27个符号。英语信源的最大熵(等概率)H 0=log227=476(比特/符号)英语字母并非等概率出现,字母之间有严格的依赖关系。表2是对27个符号出现 的概率统计结果。符号概率符号概率符号概率空格0.2S0.052Y,W0.012E0.105H0.047G0.011T0.072D0.0

11、35B0.010500.0645L0.029V0.008A0.063C0.023K0.003N0.055F,U0.0225X0.002I0.055M0.021J,Q0.001R0.054P0.0175Z0.001如果不考虑符号间的依赖关系,近似认为信源是离散无记忆的,则按表2的概率 分布,随机地选择英语字母并排列起来,得到一个输出序列:AI_NGAE_ITE_NNR_ASAEV_OTE_BAINTHA_HYROO_PORE_SETRYGAIET RWCO_EHDUARU_EUEU_C_FT_NSREM_DIY_EESE_F_O_SRIS_R_UNNASH OR这个序列看起来有点像英语,但不是。

12、实际英语的某个字母出现后,后面 的字母并非完全随机出现,而是满足一定关系的条件概率分布。例如T后面出现 H,R的可能性较大,出现J,K,M,N的可能性极小,而根本不会出现Q,F,X。即英语 字母之间有强烈的依赖性。上述序列仅考虑了字母出现的概率,忽略了依赖关系。 *把英语看成马尔可夫信源为了进一步逼近实际情况,可把英语信源近似看做1阶,2阶,阶马尔可夫信 源,它们的熵为:H2=3.32(比特/符号)H3=3.1(比特/符号)若把英语信源近似成2阶马尔可夫信源,可得到某个输出序列:IANKS_CAN_OU_ANG_RLER_THTTED_OF_TO_SHOR_OF_TO_HAVEM EM_A_I

13、_MAND_AND_BUT_WfflSS_ITABLY_THERVEREER这个序列中被空格分开的两字母或三字母,组成的大都是有意义的英语单词, 而四个以上字母组成的“单词”,很难从英语词典中查到。因为该序列仅考虑了3 个以下字母之间的依赖关系。实际英语字母之间的关系延伸到更多的符号,单词 之间也有依赖关系。有依赖关系的字母数越多,即马尔可夫信源的阶数越高,输出的序列就越接近 于实际情况。当依赖关系延伸到无穷远时,信源输出的就是真正的英语,此时可 求出马尔可夫的极限熵Hs=14 (比特/符号)。Q信源冗余度定义及意义信源熵的相对率n:为了衡量符号间的相互依赖程度,定义信源实际的信息熵 与同样符

14、号数的最大熵的比值为信源熵的相对率:n = Hg/H0信源冗余度? : 1减去信源熵的相对率n,即=1-n =(H0-H-)/H0信息结构/信息变差IOS I0g = H0 -Hr信源的实际熵应为H-,但H-很难得到,于是用H0来表达信源。两者之差代 表了语言结构确定的信息。IOs越大,冗余度越大。冗余度是用来衡量符号间的 依赖程度。英语信源冗余度为? =(4.76-1.4)/4.76=0.715、结论从上述讨论中可以看出:英文的冗余度是很大的,因为语言本身有很多固定的约束,它对于信息传输是 “多余”。因此从信息传输的角度才把它定义为“冗余”。中文冗余度的统计比英文要复杂得多,中文的实际熵也比

15、英文要难统计得多。 -中文的最大熵是一个变量;-每一个单字都具有明确的意义,再由字组词,字词之间的相关性千变万化。-以辞海(上海,1989年版)收集的大约15000汉字为信源符号消息,则中 文的最大信源熵为Hmax-lb15000 =13.9 (比特/汉字)从此可以看出学习汉语 比英语难,因为其包含的熵大,平均信息量也就大,人们要掌握的东西也就多冗 余度大的消息抗干扰能力强。能通过前后字之间的关联纠正错误。听母语广播和听外语广播的对比说明:听外语费劲是英语冗余度不够造成的。 因此,英语听力要过关,除了多听多练以外,其实并无多少捷径可走。参考资料:信息论与编码,陈运,周亮,陈新,电子工业出版社,2008VV信息论基础 (Elements of Information Theory,英文影印),Thomas MCover, Joy A.Thomas,清华大学出版社,2003(The Theory of Information andCoding,英文影印版)(

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 学术论文 > 其它学术论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号