(毕业设计论文)基于双向匹配的中文分词算法的研究与实现

上传人:zhuma****mei1 文档编号:54413600 上传时间:2018-09-12 格式:DOC 页数:31 大小:233KB
返回 下载 相关 举报
(毕业设计论文)基于双向匹配的中文分词算法的研究与实现_第1页
第1页 / 共31页
(毕业设计论文)基于双向匹配的中文分词算法的研究与实现_第2页
第2页 / 共31页
(毕业设计论文)基于双向匹配的中文分词算法的研究与实现_第3页
第3页 / 共31页
(毕业设计论文)基于双向匹配的中文分词算法的研究与实现_第4页
第4页 / 共31页
(毕业设计论文)基于双向匹配的中文分词算法的研究与实现_第5页
第5页 / 共31页
点击查看更多>>
资源描述

《(毕业设计论文)基于双向匹配的中文分词算法的研究与实现》由会员分享,可在线阅读,更多相关《(毕业设计论文)基于双向匹配的中文分词算法的研究与实现(31页珍藏版)》请在金锄头文库上搜索。

1、w摘 要 中文分词是信息提取、信息检索、机器翻译、文本分类、自动文摘、语音识别、文本语 音转换、自然语言理解等中文信息处理领域的基础,虽然研究了很多年,但是中文分词依然 是中文信息处理的瓶颈之一。 本文首先将已有的分词算法进行了分析、总结和归纳,讨论了中文识别一直难以很好解 决的两大问题:歧义识别和未登录词。接着在基于词典的基础上将最大正向匹配和最大逆向 匹配结合起来,得到了双向匹配分词算法,并且使用了自己提出的字典机制(子字典机制) 实现了一个基于双向匹配算法的中文分词系统。关键词:中文分词;双向匹配;子字典机制ABSTRACTChinese word segmentation is the

2、 basis of information extraction, information retrieval, machine translation, text categorization, automatic summarization, speech recognition, text-speech, natural language understanding and other Chinese information processing , although Chinese word segmentation has been studied for many years, t

3、he Chinese word is one of the Bottleneck of Chinese information processing .Firstly, this paper is to present the segmentation algorithm which has been analyzed, summarized, discussed the implementation of the Chinese has not been identified two major problems: ambiguous word recognition and not lan

4、ding. Then, the basis of the dictionary will be based on maximum matching and maximum reverse positive match together to form a two-way matching word segmentation algorithm, and uses its own dictionary mechanism proposed by (a dictionary mechanism.) to achieve a two-way matching algorithm based on C

5、hinese word segmentation system.Key words: Chinese word; two-way match; Sub-dictionary mechanismw目 录摘要.ABSTRACT.1 引言.1 1.1 研究背景、目的及意义.11.2 中文分词的现状11.3 本文的主要创新点31.4 课题任务和论文结构32 中文分词简介.42.1 中文分词问题描述.42.2 中文分词难点分析42.3 主要的分词算法63 双向匹配算法和子字典机制.83.1 双向匹配算法.83.2 基于词典的分词算法的词典机制133.3 小结164 中文分词系统的设计与实现.17 4.1

6、 系统设计与原则174.2 中文分词系统的设计174.3 中文分词结果的实现195 测试.245.1 测试环境和测试方案245.2 中文分词系统评价标准245.3 实验结果和结论24结论.27w致谢.28参考文献.29w基于双向匹配的中文分词算法的研究与实现1 引言1.1 研究背景、目的及意义研究背景、目的及意义随着信息时代的到来,可供人们查阅和检索的中文信息越来越多,如何在浩如烟海的中 文信息世界里找到自己需要的资料成为一个越来越重要需要研究的课题。在当今时代,要处 理迅猛增长的信息,手工处理已经变得不太现实。因此出现了自动化出来方法,自动化处理 方法帮助人们检索、管理信息,来解决现在社会信

7、息丰富而知识贫乏的现状。目前已经出现 了很多自动化的工具诸如自动摘要、自动文件检索等语言处理技术,在这些技术内的一个核 心关键是主题词,对于主题词的提取有助于简化此类工作,而如何找到主题词是需要中文分 词技术的。此外中文分词也是搜索引擎,翻译等技术的基础。 中文分词,顾名思义,就是借助计算机自动给中文断句,使其能够正确表达所要表达的 意思。中文不同于西文,没有空格这个分隔符,同时在中文中充满了大量的同义词,相近词, 如何给中文断句是个非常复杂的问题,即使是手工操作也会出现问题。中文分词是信息提取、 信息检索、机器翻译、文本分类、自动文摘、语音识别、文本语音转换、自然语言理解等中 文信息处理领域

8、的基础研究课题1。对于中文分词的研究对于这些方面的发展有着至关重要 的作用。可以这样说,只要是与中文理解相关的领域,都是需要用到中文分词技术的。因此 对于中文分词技术的研究,对于我国计算机的发展有着至关重要的作用。 计算机对中文和西文的处理技术原理基本相同,但是由于中文本身的特点,我们必须引 入中文处理技术,而中文分词技术则是其中的关键,是其他中文处理技术的基础。在我国中 文分词已经被研究了三十多年,但是这仍是制约中文信息助理的瓶颈之一,它主要存在语言 学和计算机科学等两方面的困难1。对于语言学方面的内容本文不再赘述,本文主要讲解计 算机科学方面的内容。在计算机科学,仍有两大难题未能很好的解决

9、,一是歧义识别问题, 二是未登录词的处理问题。这两类问题解决不好,那么中文分词就无法解决,本文系统的讲 解了这两类问题,以及遇到的困难等。1.2 中文分词的现状中文分词的现状最早的中文分词方法是由北京航空航天大学的梁南元教授提出的一种基于“查字典”分 词方法。该方法的思想事把整个中文句子,读一遍,然后把字典里有的词都单独标示出来, 当遇到复合词的时候, (例如石家庄经济学院) ,就找到最长的词匹配,遇到不认识的字符串 就分割成单个文字。这种分词方法效率并不高,但它的提出为中文分词技术奠定了基础。 在接下来的近30年的研究中,许多研究者实现了中文分词基于词典和基于概率统计的很 多算法。现在中文分

10、词的算法主要包括对于中文分词的研究主要有基于词典的分词方法,基 于统计的分词方法,基于理解的分词方法等。其中基于词典的分词方法是当今的主流,可以 说现在出现的分词系统,很多都是在基于词典的基础上再结合另外的一种或两种方法而成的。 基于词典的分词方法又称机械分词方法,主要包括最大正向匹配,最大逆向匹配,最少切分 法等。不仅对于算法的研究,目前国内已有许多分词系统相继开发完成。文2对现在的各w个分词系统及其特点做了阐述如下: SCWS Hightman 开发的一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正 确的切分成词。采用的是采集的词频词典,并辅以一定的专有名称,人名,地名,数字年

11、代 等规则识别来达到基本分词,经小范围测试大概准确率在 90% 95% 之间,已能基本满足 一些小型搜索引擎、关键字提取等场合运用。45Kb 左右的文本切词时间是 0.026 秒,大概 是 1.5MB 文本/秒,支持 PHP4 和 PHP 5。 ICTCLAS 这是最早的中文开源分词项目之一,ICTCLAS 在国内 973 专家组组织的评测中活动获 得了第一名,在第一届国际中文处理研究机构 SigHan 组织的评测中都获得了多项第一名。 ICTCLAS3.0 分词速度单机 996KB/s,分词精度 98.45%,API 不超过 200KB,各种词典数据 压缩后不到 3M.ICTCLAS 全部采

12、用 C/C+编写,支持 Linux、FreeBSD 及 Windows 系列操 作系统,支持 C/C+、C#、Delphi、Java 等主流的开发语言。 HTTPCWS HTTPCWS 是一款基于 HTTP 协议的开源中文分词系统,目前仅支持 Linux 系统。 HTTPCWS 使用“ICTCLAS 3.0 2009 共享版中文分词算法”的 API 进行分词处理,得出分词 结果。HTTPCWS 将取代之前的 PHPCWS 中文分词扩展 CC-CEDICT 一个中文词典开源项目,提供一份以汉语拼音为中文辅助的汉英辞典,截至 2009 年 2 月 8 日,已收录 82712 个单词。其词典可以用于

13、中文分词使用,而且不存在版权问题。 Chrome 中文版就是使用的这个词典进行中文分词的。 IKIKAnalyzer 是一个开源的,基于 java 语言开发的轻量级的中文分词工具包。从 2006 年 12 月推出 1.0 版开始,IKAnalyzer 已经推出了 3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的 IKAnalyzer3.0 则 发展为面向 Java 的公用分词组件,独立于 Lucene 项目,同时提供了对 Lucene 的默认优化 实现。Paoding Paoding(庖丁解牛分词)基于 Java 的开源中文分词

14、组件,提供 lucene 和 solr 接口,具 有极 高效率 和 高扩展性 。引入隐喻,采用完全的面向对象设计,构思先进。 高效率: 在 PIII 1G 内存个人机器上,1 秒 可准确分词 100 万 汉字。 采用基于 不限制个数 的 词典文件对文章进行有效切分,使能够将对词汇分类定义。 能够对未知的词汇进行合理 解析 仅支持 Java 语言。 MMSEG4J MMSEG4J 基于 Java 的开源中文分词组件,提供 lucene 和 solr 接口 1、mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法实现的中文分词器,并实现 lucene 的 analyzer 和 so

15、lr 的 TokenizerFactory 以方便在 Lucene 和 Solr 中使用。 2、MMSeg 算法有两种分词方法: Simple 和 Complex,都是基于正向最大匹配。Complex 加了四个规则过虑。官方说:词语 的正确识别率达到了 98.41%。mmseg4j 已经实现了这两种分词算法 盘古分词w盘古分词是一个基于.net 平台的开源中文分词组件,提供lucene(.net 版本) 和 HubbleDotNet的接口 高效:Core Duo 1.8 GHz 下单线程 分词速度为 390K 字符每秒 准确:盘古分词采用字典和统计结合的分词算法,分词准确率较高。 功能:盘古分

16、词提 供中文人名识别,简繁混合分词,多元分词,英文词根化,强制一元分词,词频优先分词, 停用词过滤,英文专名提取等一系列功能。本文认为,虽然我国对于中文分词的研究有了一定的成绩,但是我国对于中文分词的研 究还处于初级阶段,虽然研究人员也提出了一些中文分词技术的重要思想和方法,但是对于 中文分词的两大基本问题(歧义识别问题和未登录词问题)还没有很好的解决,所研发的中 文分词系统在不同领域所达到的分词精度也不尽相同。这些都是我们将来对中文分词的研究 方向。1.3 本文的主要创新点本文的主要创新点(1)对于词典在内存中的组织,本文主要讲解了现有的词典机制,并提出了子字典的 概念:将字数相同的词语组织在一起,从而提高了词典的匹配速度; (2)本文采用双向匹配的分词算法,双向匹配的分词算法主要是将最大正向匹配和最 大逆向匹配相结合的分词方法,这对于歧义词语的发现和解决提出了一个很好的方法;(3)本文支持词典的新增,这很好的解决了未登录词的问题,并支持专业词汇的载入, 从而提高了分词的精准度。1.4 课题任务和论文结构课题

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 学术论文 > 毕业论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号