基于机器学习的文本分类方法

上传人:s9****2 文档编号:546583234 上传时间:2024-01-04 格式:DOCX 页数:7 大小:77.23KB
返回 下载 相关 举报
基于机器学习的文本分类方法_第1页
第1页 / 共7页
基于机器学习的文本分类方法_第2页
第2页 / 共7页
基于机器学习的文本分类方法_第3页
第3页 / 共7页
基于机器学习的文本分类方法_第4页
第4页 / 共7页
基于机器学习的文本分类方法_第5页
第5页 / 共7页
点击查看更多>>
资源描述

《基于机器学习的文本分类方法》由会员分享,可在线阅读,更多相关《基于机器学习的文本分类方法(7页珍藏版)》请在金锄头文库上搜索。

1、精选优质文档-倾情为你奉上基于机器学习算法的文本分类方法综述摘要:文本分类是机器学习领域新的研究热点。基于机器学习算法的文本分类方法比传统的文本分类方法优势明显。本文综述了现有的基于机器学习的文本分类方法,讨论了各种方法的优缺点,并指出了文本分类方法未来可能的发展趋势。1. 引言随着计算机技术、数据库技术,网络技术的飞速发展,Internet的广泛应用,信息交换越来越方便,各个领域都不断产生海量数据,使得互联网数据及资源呈现海量特征,尤其是海量的文本数据。如何利用海量数据挖掘出有用的信息和知识,方便人们的查阅和应用,已经成为一个日趋重要的问题。因此,基于文本内容的信息检索和数据挖掘逐渐成为备受

2、关注的领域。文本分类(text categorization,TC)技术是信息检索和文本挖掘的重要基础技术,其作用是根据文本的某些特征,在预先给定的类别标记(label)集合下,根据文本内容判定它的类别。传统的文本分类模式是基于知识工程和专家系统的,在灵活性和分类效果上都有很大的缺陷。例如卡内基集团为路透社开发的Construe专家系统就是采用知识工程方法构造的一个著名的文本分类系统,但该系统的开发工作量达到了10个人年,当需要进行信息更新时,维护非常困难。因此,知识工程方法已不适用于日益复杂的海量数据文本分类系统需求1。20世纪90年代以来,机器学习的分类算法有了日新月异的发展,很多分类器模

3、型逐步被应用到文本分类之中,比如支持向量机(SVM,Support Vector Machine)2-4、最近邻法(Nearest Neighbor)5、决策树(Decision tree)6、朴素贝叶斯(Naive Bayes)7等。逐渐成熟的基于机器学习的文本分类方法,更注重分类器的模型自动挖掘和生成及动态优化能力,在分类效果和灵活性上都比之前基于知识工程和专家系统的文本分类模式有所突破,取得了很好的分类效果。本文主要综述基于机器学习算法的文本分类方法。首先对文本分类问题进行概述,阐述文本分类的一般流程以及文本表述、特征选择方面的方法,然后具体研究基于及其学习的文本分类的典型方法,最后指出

4、该领域的研究发展趋势。2文本自动分类概述文本自动分类可简单定义为:给定分类体系后,根据文本内容自动确定文本关联的类别。从数学角度来看,文本分类是一个映射过程,该映射可以是一一映射,也可以是一对多映射过程。文本分类的映射规则是,系统根据已知类别中若干样本的数据信息总结出分类的规律性,建立类别判别公式或判别规则。当遇到新文本时,根据总结出的类别判别规则确定文本所属的类别。也就是说自动文本分类通过监督学习自动构建出分类器,从而实现对新的给定文本的自动归类。文本自动分类一般包括文本表达、特征选取、分类器的选择与训练、分类等几个步骤,其中文本表达和特征选取是文本分类的基础技术,而分类器的选择与训练则是文

5、本自动分类技术的重点,基于机器学习的文本分来就是通过将机器学习领域的分类算法用于文本分类中来8。图1是文本自动分类的一般流程。图 1 文本自动分类一般流程82.1 文本表述至今,计算机还不能像人类那样阅读完文章之后,根据自身的理解能力对文章的内容产生一定的认识。要使计算机能够高效率、高性能地处理自然文本,就需要有一个文本表示的过程,文本表示是将非结构化的文本文档表示为机器易于处理的形式的过程。文本表示通常包括文本预处理和文本模型表示等步骤,其中文本预处理为建立文本表示模型做必要的准备工作。具体的文本标识方法有很多种模型,如布尔模型、布尔模型性、向量空间模型等。词包(Bag of Words)表

6、示法是目前文本分类的标准模式。把文本看成是段落的集合,或者是句子的集合,也可以看成是单或字母的集合,而单词是组成文本的一个基本单位,研究者通常把一个文本当作是一系列单词的集合来表示,即所谓的词包表示法,它通过特征处理和统计学习算法的基础上获得对文本语义内容及类别信息的估计与预测。实际应用中空间向量模型(vector Space Modal, VSM)是常见的文本表示模型。在这种表示方式中,每篇文档表示成形如d=的向量,其中ti表示词条项,wi表示ti在文档d中的权值。如图2所示是向量空间模型。向量空间模型已经在信息检索、文本分类等应用中取得了成功。除VSM外,还有基于概率分布、基于二维视图等模

7、型。这些非VSM的表示方法需要通过理论以及应用实践上的进一步验证。图 2 向量空间模型2.2 特征提取特征提取是在初始全特征集基础上提取出一个特征子集的过程,能够起到降低向量空间维数、简化计算、防止过拟合作用。首先根据特征提取算法对特征的重要性进行评估,然后进行重要度排序,最后根据提取阈值或提取比率完成提取。提取后的特征集将用于之后的训练和分类过程。常用特征提取算法有文档频数(Document Frequency)、信息增益(information Gain)、期望交叉熵(expected cross entropy)、互信息(Mutual Information)、2统计等。3基于机器学习的

8、文本分类方法3.1 基于朴素贝叶斯法的文本分类朴素贝叶斯方法是最早用于文本分类的分类器算法,是一种统计学分类方法,它基于贝叶斯决策论并且基于此项独立的假设,几不同属性对分类结果的影响是独立的。假设d为待分类文档的表示向量,它属于文档类别集合C=c1,c2,c3,cn中某一类。根据贝叶斯公式有:Pd=j=1nPcjP(d|cj) Pcj|d=PcjP(d|cj)P(d), j=1,2,n其中Pcj表示类别cj在样本集中的比重,P(d|cj)由概率密度函数计算得出。分类时,Pcj|d值最大情况对应的类别cmax为待分类文档类别。基于上述假设的概率分类器一般称为贝叶斯分类器。贝叶斯分类器容易理解,计

9、算简单而且比较实用,其分类效果基本能满足要求,但其关于词项独立性的假设受到了质疑。3.2 基于决策树法的文本分类决策树学习是应用最广泛的归纳推理算法之一,它是一种逼近离散值函数的方法,对噪声数据有很好的健壮性且能够学习析取表达式。决策树着眼于从一组无次序无规则的事例中推理出决策树表示形式的分类规则,它通过把实例从根结点排序到某个叶子结点来分类实例,叶子结点即为实例所属的分类。在构造分类模型时,树上的每个结点指定了对实例属性集测试后选择出的属性,并且该结点的每一个后继分支对应于该属性的一个可能值。分类实例的时候,就是从树的结点开始,测试这个结点指定的属性,然后按照给定实例的该属性值对应的树枝向下

10、移动,之后在新的结点上重复这个过程直到叶子结点,即获得分类。一般来说,决策树算法主要围绕两大核心问题展开:第一,决策树的生长问题,即利用训练样本集,完成决策树的建立过程;第二,决策树的剪枝问题,即利用检验样本集对形成的决策树进行优化处理。决策树的构建是一种自上而下、分而治之的归纳过程,本质是贪心算法。各种算法建树的基本过程相似,是一个递归的过程。设数据样本集为S,算法框架如下:(1) 如果数据样本集S中所有样本都属于同一类或者满足其他终止准则,则S不再划分,形成叶节点:(2) 否则,根据某种策略选择一个属性,按照属性的各个取值,对S进行划分,得到n个子样本集,记为Si,再对每个Si迭代执行步骤

11、(1)。经过n次递归,最后生成决策树。从根到叶节点的一条路径对应着一条规则,整棵决策树就对应着一组析取表达式规则。为了防止决策树和训练样本集的过度拟合,特别是存在噪声数据或不规范属性时更为突出,需要对决策树进行剪枝。剪枝的算法通常利用统计方法决定是否将一个分支变为一个节点。通常采用两种方法进行决策树的剪枝,即在决策树生长过程完成前就进行剪枝的事前修剪法和在决策树生长过程完成后才进行剪枝的事后修剪法。决策树分类算法自提出以来,出现了很多种,早期的是CLS学习算法和CART算法,最有影响的是1986年Quinlan提出的ID3算法。ID3算法体现了决策树分类的优点:算法的理论清晰、方法简单,学习能

12、力较强。缺点是:只对比较小的数据集有效,且对噪声比较敏感。在ID3算法的基础上,Quinlan又发展了具有重要影响的C4.5算法,它继承并改进了ID3算法,使用非常广泛。为了适应处理大规模数据集的需要,后来学者又提出了若干改进的算法,取得了较好的效果。决策树文本分类法分类精度较好,并且可以很好的抵抗噪声,但缺点是在处理大规模数据集的情况下效率不高。3.3 基于K最近邻法的文本分类K最近邻算法(k Nearest Neighbor, KNN)分类算法是传统的基于统计的模式识别方法,在文本分类领域使用较多。其算法思想是对于一篇待分类文档,在训练集中找到K个最相近的邻居。取这K个邻居的类别为该文档的

13、候选类别,该文档与K个邻居之间的相似度为候选类别的权重,然后使用设定的相似度阈值就可以得到该文档的最终分类。KNN算法也是基于向量空间模型的分类算法之一,最初由Cover和Hart于1968年提出,是一个理论上比较成熟的方法。采用kNN方法进行文档分类可以定义为:对于给定的文档集D,把D中所有的文本内容形式化为特征空间中的加权特征向量D,其中向量D表示为D=。对于某一给定的测试文档d,通过计算它与每个训练文档的相似度,找出k个最相似的文档。在此基础上,给每个文档类别加权打分,根据加权距离和判断测试文本所属的类别。根据上述表述,可以把KNN文本分类法归结为以下步骤: 根据各种规则将文本内容变换成

14、文本特征向量。 根据相似度公式计算测试文本与每个训练文本的相似度,计算公式如下:Simdi,dj=k=1mWikWjkk=1mWik2k=1mWjk2其中,m是特征向量维数,K表示近邻个数,其具体数值的确定目前还没有很好的方法,一般采用先定一个初始值,然后通过实验测试调整K值,一般初始值定为几百到几千之间,但是要小于训练文档总数。 从(2)的结果中选出k个相似度最大的训练集文档,计算分类权重,计算公式为:Pd,ci=djkNNSimd,djydj,ci-bi其中d表示文本特征向量,ydj,ci0,1,即如果文档属于该类别值为l,反之为0。bi为阈值,对于某一特定类来说,bi是一个有待优化选择的

15、值,可以通过一个验证文档集来进行调整。KNN算法足向量空间模型下最好的分类算法之一,优点是易于快速实现,在基于统计的模式识别中非常有效,有较好的分类准确性和稳定性,尤其对于未知和非正态分布可以取得较高的分类准确率。KNN可以较好地避免样本的不平衡问题,对于类域的交叉或重叠较多的待分样本集和样本容量较大的类域的分类较为适合,并且,它对训练数据中的噪声有很好的健壮性,当给定足够大的训练集合时也非常有效。总体来说KNN优于贝叶斯、决策树。然而作为一种懒散的学习算法,它也存在一些限制:一是空间开销大。因为要事先存储全部训练样例,当训练样例增大时存储空间也随之增大。二是计算相似度时,实例间的距离是根据实

16、例的所有属性来计算的,这与那些只选择全部实例属性的一个子集的方法不同,例如决策树。有些属性与分类相关性不大或无关时,可能会误导近邻算法的分类,近邻间的距离会被大量的不相关属性所支配。这种由于存在很多不相关属性所导致的难题,有时被称为唯度灾难9。最近邻方法对这个问题特别敏感。解决的方法一般有两种,一是在计算两个实例间的距离时对每个属性加权,二是从实例空间中完全消除最不相关的属性。3.4 基于中心向量法的文本分类还有一类分类速度较快的基于向量空间模型的文本分类算法是基于中心向量的分类法,又称为Rocchio算法10。中心向量法最初用于信息检索,现在已经被广泛应用于文本分类。中心向量法的基本思想是通过对训练集

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 教学/培训

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号