中文分词技术

上传人:cn****1 文档编号:497963310 上传时间:2022-10-30 格式:DOC 页数:6 大小:95KB
返回 下载 相关 举报
中文分词技术_第1页
第1页 / 共6页
中文分词技术_第2页
第2页 / 共6页
中文分词技术_第3页
第3页 / 共6页
中文分词技术_第4页
第4页 / 共6页
中文分词技术_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《中文分词技术》由会员分享,可在线阅读,更多相关《中文分词技术(6页珍藏版)》请在金锄头文库上搜索。

1、一、为什么要进行中文分词?词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的基础与关键。Lucene中对中文的处理是基于自动切分的单字切分,或者二元切分。除此之外,还有最大切分(包括向前、向后、以及前后相结合)、最少切分、全切分等等。二、中文分词技术的分类我们讨论的分词算法可分为三大类:基于字典、词库匹配的分词方法;基于词频度统计的分词方法和基于知识理解的分词方法。第一类方法应用词典匹配、汉语词法或其它汉语语言知识进行分词,如:最大匹配法、最小分词方法等。这类方法简单、分词

2、效率较高,但汉语语言现象复杂丰富,词典的完备性、规则的一致性等问题使其难以适 应开放的大规模文本的分词处理。第二类基于统计的分词方法则基于字和词的统计信息,如把相邻字间的 信息、词频及相应的共现信息等应用于分词,由于这些信息是通过调查真实语料而取得的,因而基于统计 的分词方法具有较好的实用性。下面简要介绍几种常用方法:1).逐词遍历法。逐词遍历法将词典中的所有词按由长到短的顺序在文章中逐字搜索,直至文章结束。也就是说,不管文章有多短,词典有多大,都要将词典遍历一遍。这种方法效率比较低,大一点的系统一般都不使用。2)基于字典、词库匹配的分词方法(机械分词法)这种方法按照一定策略将待分析的汉字串与

3、一个充分大的”机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功。识别出一个词,根据扫描方向的不同分为正向匹配和逆向匹配。根据不同长度 优先匹配的情况,分为最大(最长)匹配和最小(最短)匹配。根据与词性标注过程是否相结合,又可以 分为单纯分词方法和分词与标注相结合的一体化方法。常用的方法如下:()最大正向匹配法 (MaximumMatchingMethod)通常简称为MM法。其基本思想为:假定分词词典中的最长词有 i个汉字字符,则用被处理文档的当前字串中的前i个字作为匹配字段,查找字典。若字典中存在这样的一个i字词,则匹配成功,匹配字段被作为一个词切分出来。如果词典中找不到这样的一

4、个i字词,则匹配失败,将匹配字段中的最后一个字去掉,对剩下的字串重新进行匹配处 理如此进行下去,直到匹配成功,即切分岀一个词或剩余字串的长度为零为止。这样就完成了一轮匹配,然后取下一个i字字串进行匹配处理,直到文档被扫描完为止。其算法描述如下:(1) 初始化当前位置计数器,置为0;(2) 从当前计数器开始,取前2i个字符作为匹配字段,直到文档结束;(3) 如果匹配字段长度不为 0,则查找词典中与之等长的作匹配处理。 如果匹配成功,则,a) 把这个匹配字段作为一个词切分出来,放入分词统计表中;b) 把当前位置计数器的值加上匹配字段的长度;c) 跳转到步骤2);否则a) 如果匹配字段的最后一个字符

5、为汉字字符,则 把匹配字段的最后一个字去掉; 匹配字段长度减2 ;否则 把匹配字段的最后一个字节去掉; 匹配字段长度减1 ;b) 跳转至步骤3);否则a)如果匹配字段的最后一个字符为汉字字符,则 当前位置计数器的值加 2;否则当前位置计数器的值加 1 ;b)跳转到步骤2)。(二)逆向最大匹配法 (ReverseMaximumMatcingMethod)通常简称为RMM法RMM法的基本原理与MM法相同,不同的是分词切分的方向与 MM法相反,而且使用的分词辞典也不同。逆向最大匹配法从被处理文档的末端开始匹配扫描,每次取最末端的2i个字符(i字字串)作为匹配字段,若匹配失败,则去掉匹配字段最前面的一

6、个字,继续匹配。相应地,它使用的分词词典是逆序词典,其中的每个词条都将按逆序方式存放。在实际处理时,先将文档进行倒排处理,生成逆序文档。然后, 根据逆序词典,对逆序文档用正向最大匹配法处理即可。由于汉语中偏正结构较多,若从后向前匹配,可以适当提高精确度。所以,逆向最大匹配法比正向最大匹 配法的误差要小。统计结果表明,单纯使用正向最大匹配的错误率为1/16 9,单纯使用逆向最大匹配的错误率为1/245。例如切分字段 硕士研究生产”,正向最大匹配法的结果会是 硕士研究生/产”,而逆向最大匹 配法利用逆向扫描,可得到正确的分词结果硕士 /研究/生产”。当然,最大匹配算法是一种基于分词词典的机械分词法

7、,不能根据文档上下文的语义特征来切分词语,对 词典的依赖性较大,所以在实际使用时,难免会造成一些分词错误,为了提高系统分词的准确度,可以采 用正向最大匹配法和逆向最大匹配法相结合的分词方案(即双向匹配法,见(四)。)(三)最少切分法:使每一句中切出的词数最小。(四)双向匹配法:将正向最大匹配法与逆向最大匹配法组合。先根据标点对文档进行粗切分,把文档分 解成若干个句子,然后再对这些句子用正向最大匹配法和逆向最大匹配法进行扫描切分。如果两种分词方 法得到的匹配结果相同,则认为分词正确,否则,按最小集处理。3).全切分和基于词的频度统计的分词方法基于词的频度统计的分词方法是一种全切分方法。在讨论这个

8、方法之前我们先要明白有关全切分的相关内 容。全切分全切分要求获得输入序列的所有可接受的切分形式,而部分切分只取得一种或几种可接受的切分形式,由 于部分切分忽略了可能的其他切分形式,所以建立在部分切分基础上的分词方法不管采取何种歧义纠正策 略,都可能会遗漏正确的切分,造成分词错误或失败。而建立在全切分基础上的分词方法,由于全切分取 得了所有可能的切分形式,因而从根本上避免了可能切分形式的遗漏,克服了部分切分方法的缺陷。全切分算法能取得所有可能的切分形式,它的句子覆盖率和分词覆盖率均为100%,但全切分分词并没有在文本处理中广泛地采用,原因有以下几点:1)全切分算法只是能获得正确分词的前提,因为全

9、切分不具有歧义检测功能,最终分词结果的正确性和完 全性依赖于独立的歧义处理方法,如果评测有误,也会造成错误的结果。2)全切分的切分结果个数随句子长度的增长呈指数增长,一方面将导致庞大的无用数据充斥于存储数据库;另一方面当句长达到一定长度后,由于切分形式过多,造成分词效率严重下降。基于词的频度统计的分词方法:这是一种全切分方法。它不依靠词典,而是将文章中任意两个字同时岀现的频率进行统计,次数越高的就可能是一个词。它首先切分岀与词表匹配的所有可能的词,运用统计语言模型和决策算法决定最优的切分结果。它的优点在于可以发现所有的切分歧义并且容易将新词提取出来。4)基于知识理解的分词方法。该方法主要基于句

10、法、语法分析,并结合语义分析,通过对上下文内容所提供信息的分析对词进行定界, 它通常包括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断。这类方法试图让机器具有人类的理解能力,需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可 直接读取的形式。因此目前基于知识的分词系统还处在试验阶段。5)一种新的分词方法并行分词方法:这种分词方法借助于一个含有分词词库的管道进行,比较匹配过程是分步进行的,每一步可以对进入管道中的词同时与词库中相应的词进行比较,由于同时有多个词进行比

11、较匹配 ,因而分词速度可以大幅度提高。这种方法涉及到多级内码理论和管道的词典数据结构。(详细算法可以参考吴胜远的并行 分词方法的研究。)常用中文分词包1. 庖丁解牛分词包,适用于与Lucene 整合。http:/ 源组件。Paoding中文分词追求分词的高效率和用户良好体验。Paodings Knives 中文分词具有极 高效率和高扩展性。引入隐喻,采用完全的面向对象设计,构思 先进。高效率:在PIII 1G内存个人机器上,1秒 可准确分词100万 汉字。采用基于不限制个数的词典文件对文章进行有效切分,使能够将对词汇分类定义。能够对未知的词汇进行合理解析2. LingPipe,开源自然语言处理

12、的 Java 开源工具包。http:/alias- Classification )、命名实体识别(Named Entity Recognition )、词性标注(Part-of Speech Tagging )、句题检测(Sentence Detection )、查询拼写检查(Query Spell Checking )、兴趣短语检测(Interseting Phrase Detection )、聚类(Clustering )、字符语言建模(Character Language Modeling )、 医学文献下载 /解析 /索引(MEDLINE Download, Parsing and

13、Indexing )、数据库文本挖掘 (Database Text Mining )、中文分词(Chinese Word Segmentation )、情感分析(Sentiment Analysis )、语言辨别(Language Identification )等3. JE分词包4. LibMMSeg http:/ 300K/S (PM-1.2G ),截至当 前版本(0.7.1 )。LibMMSeg没有为速度仔细优化过,进一步的提升切分速度应仍有空间。5. IKAnalyzer http:/ 接口的实现。该算法适合与互联网用户的搜索习惯和企业知识库检索,用户可以用句子中涵盖的中文词汇搜索,如

14、用人民搜索含人民币的文章,这是大部分用户的搜索思维;不适合用于知识挖掘和网络爬虫技术,全切分法容易造成知识歧义,因为在语义学上人民和人民币”是完全搭不上关系的。6. PHPCWS http:/ 3.0共享版中文分词算法”的API进行初次分词处理,再使用自行编写的逆向最大匹配算法”对分词和进行词语合并处理,并增加标点符号过滤功能,得岀分词结果。ICTCLAS (Institute of Computing Technology, Chinese Lexical Analysis System)是中国科学院计算技术研究所在多年研究工作积累的基础上,基于多层隐马模型研制岀的汉语词法分析系统,主要功能包括 中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。ICTCLAS经过五年精心打造,内核升级6次,目前已经升级到了ICTCLAS3.

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 解决方案

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号