主要分类方法介绍

上传人:豆浆 文档编号:30729824 上传时间:2018-02-01 格式:DOCX 页数:6 大小:22.43KB
返回 下载 相关 举报
主要分类方法介绍_第1页
第1页 / 共6页
主要分类方法介绍_第2页
第2页 / 共6页
主要分类方法介绍_第3页
第3页 / 共6页
主要分类方法介绍_第4页
第4页 / 共6页
主要分类方法介绍_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《主要分类方法介绍》由会员分享,可在线阅读,更多相关《主要分类方法介绍(6页珍藏版)》请在金锄头文库上搜索。

1、分类(Categorization or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。最常用的分类算法就是贝叶斯分类算法,(贝叶斯分类器)用到的知识就是概率的东西 不准确的说,就是给它一些已经知道分类的例子作为样本,让它自己“找到”分类标准。说概念就太抽象,我给你举一些例子吧 比如程序是区分大豆和绿豆的。我们输入的数据是 比如颜色值、半径大小,属于黄豆还是绿豆等等(当然这是个简单的例子)。首先我们需要拿出一些“豆子” 的数据给程序,并告诉它是

2、黄豆还是绿豆,然后通过自己的算法,让程序“计算”出区分两种东西的“边界条件” ,或者简单说就是提取特征(一般用的比较多的就是距离)。这就相当于训练/学习等概念。主要分类方法介绍主要分类方法介绍解决分类问题的方法很多 40-42 ,单一的分类方法主要包括:决策树、贝叶斯、人工神经网络、K-近邻、支持向量机和基于关联规则的分类等;另外还有用于组合单一分类方法的集成学习算法,如 Bagging 和 Boosting 等。(1)决策树决策树是用于分类和预测的主要技术之一,决策树学习是以实例为基础的归纳学习算法,它着眼于从一组无次序、无规则的实例中推理出以决策树表示的分类规则。构造决策树的目的是找出属性

3、和类别间的关系,用它来预测将来未知类别的记录的类别。它采用自顶向下的递归方式,在决策树的内部节点进行属性的比较,并根据不同属性值判断从该节点向下的分支,在决策树的叶节点得到结论。主要的决策树算法有 ID3、C4.5(C5.0)、CART、PUBLIC、SLIQ 和 SPRINT 算法等。它们在选择测试属性采用的技术、生成的决策树的结构、剪枝的方法以及时刻,能否处理大数据集等方面都有各自的不同之处。(2)贝叶斯贝叶斯(Bayes)分类算法是一类利用概率统计知识进行分类的算法,如朴素贝叶斯(Naive Bayes)算法。这些算法主要利用 Bayes 定理来预测一个未知类别的样本属于各个类别的可能性

4、,选择其中可能性最大的一个类别作为该样本的最终类别。由于贝叶斯定理的成立本身需要一个很强的条件独立性假设前提,而此假设在实际情况中经常是不成立的,因而其分类准确性就会下降。为此就出现了许多降低独立性假设的贝叶斯分类算法,如TAN(Tree Augmented Nave Bayes)算法,它是在贝叶斯网络结构的基础上增加属性对之间的关联来实现的。(3)人工神经网络人工神经网络(Artificial Neural Networks,ANN)是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在这种模型中,大量的节点(或称”神经元” ,或”单元”)之间相互联接构成网络,即”神经网络” ,以

5、达到处理信息的目的。神经网络通常需要进行训练,训练的过程就是网络进行学习的过程。训练改变了网络节点的连接权的值使其具有分类的功能,经过训练的网络就可用于对象的识别。目前,神经网络已有上百种不同的模型,常见的有 BP 网络、径向基 RBF 网络、Hopfield网络、随机神经网络(Boltzmann 机)、竞争神经网络( Hamming 网络,自组织映射网络)等。但是当前的神经网络仍普遍存在收敛速度慢、计算量大、训练时间长和不可解释等缺点。(4)k-近邻k-近邻 (kNN,k-Nearest Neighbors)算法是一种基于实例的分类方法。该方法就是找出与未知样本 x 距离最近的 k 个训练样

6、本,看这 k 个样本中多数属于哪一类,就把 x 归为那一类。k-近邻方法是一种懒惰学习方法,它存放样本,直到需要分类时才进行分类,如果样本集比较复杂,可能会导致很大的计算开销,因此无法应用到实时性很强的场合。(5)支持向量机支持向量机(SVM,Support Vector Machine)是 Vapnik 根据统计学习理论提出的一种新的学习方法 43 ,它的最大特点是根据结构风险最小化准则,以最大化分类间隔构造最优分类超平面来提高学习机的泛化能力,较好地解决了非线性、高维数、局部极小点等问题。对于分类问题,支持向量机算法根据区域中的样本计算该区域的决策曲面,由此确定该区域中未知样本的类别。(6

7、)基于关联规则的分类关联规则挖掘是数据挖掘中一个重要的研究领域。近年来,对于如何将关联规则挖掘用于分类问题,学者们进行了广泛的研究。关联分类方法挖掘形如 condsetC 的规则,其中condset 是项(或属性-值对)的集合,而 C 是类标号,这种形式的规则称为类关联规则(class association rules,CARS)。关联分类方法一般由两步组成:第一步用关联规则挖掘算法从训练数据集中挖掘出所有满足指定支持度和置信度的类关联规则;第二步使用启发式方法从挖掘出的类关联规则中挑选出一组高质量的规则用于分类。属于关联分类的算法主要包括 CBA44 ,ADT 45 ,CMAR 46 等。

8、(7)集成学习(Ensemble Learning)实际应用的复杂性和数据的多样性往往使得单一的分类方法不够有效。因此,学者们对多种分类方法的融合即集成学习进行了广泛的研究。集成学习已成为国际机器学习界的研究热点,并被称为当前机器学习四个主要研究方向之一。集成学习是一种机器学习范式,它试图通过连续调用单个的学习算法,获得不同的基学习器,然后根据规则组合这些学习器来解决同一个问题,可以显著的提高学习系统的泛化能力。组合多个基学习器主要采用(加权)投票的方法,常见的算法有装袋 47 (Bagging ),提升/推进 48, 49 (Boosting)等。有关分类器的集成学习见图 2-5。集成学习由

9、于采用了投票平均的方法组合多个分类器,所以有可能减少单个分类器的误差,获得对问题空间模型更加准确的表示,从而提高分类器的分类准确度。图 2-5:分类器的集成学习以上简单介绍了各种主要的分类方法,应该说其都有各自不同的特点及优缺点。对于数据库负载的自动识别,应该选择哪种方法呢?用来比较和评估分类方法的标准 50 主要有:(1)预测的准确率。模型正确地预测新样本的类标号的能力;(2)计算速度。包括构造模型以及使用模型进行分类的时间;(3)强壮性。模型对噪声数据或空缺值数据正确预测的能力;(4)可伸缩性。对于数据量很大的数据集,有效构造模型的能力;(5)模型描述的简洁性和可解释性。模型描述愈简洁、愈

10、容易理解,则愈受欢迎。各种分类算法比较最近在学习分类算法,顺便整理了各种分类算法的优缺点。1 决策树(Decision Trees)的优缺点决策树的优点:一、 决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。二、 对于决策树,数据的准备往往是简单或者是不必要的.其他的技术往往要求先把数据一般化,比如去掉多余的或者空白的属性。三、 能够同时处理数据型和常规型属性。其他的技术往往要求数据属性的单一。四、 决策树是一个白盒模型。如果给定一个观察的模型,那么根据所产生的决策树很容易推出相应的逻辑表达式。五、 易于通过静态测试来对模型进行评测。表示有可能测量该模型的可信度。六、

11、在相对短的时间内能够对大型数据源做出可行且效果良好的结果。七、 可以对有许多属性的数据集构造决策树。八、 决策树可很好地扩展到大型数据库中,同时它的大小独立于数据库的大小。决策树的缺点:一、 对于那些各类别样本数量不一致的数据,在决策树当中,信息增益的结果偏向于那些具有更多数值的特征。二、 决策树处理缺失数据时的困难。三、 过度拟合问题的出现。四、 忽略数据集中属性之间的相关性。2 人工神经网络的优缺点人工神经网络的优点:分类的准确度高,并行分布处理能力强,分布存储及学习能力强,对噪声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系,具备联想记忆的功能等。人工神经网络的缺点:神经网络需

12、要大量的参数,如网络拓扑结构、权值和阈值的初始值;不能观察之间的学习过程,输出结果难以解释,会影响到结果的可信度和可接受程度;学习时间过长,甚至可能达不到学习的目的。3 遗传算法的优缺点遗传算法的优点:一、 与问题领域无关切快速随机的搜索能力。二、 搜索从群体出发,具有潜在的并行性,可以进行多个个体的同时比较,鲁棒性好。三、 搜索使用评价函数启发,过程简单。四、 使用概率机制进行迭代,具有随机性。五、 具有可扩展性,容易与其他算法结合。遗传算法的缺点:一、 遗传算法的编程实现比较复杂,首先需要对问题进行编码 ,找到最优解之后还需要对问题进行解码,二、 另外三个算子的实现也有许多参数,如交叉率和

13、变异率 ,并且这些参数的选择严重影响解的品质,而目前这些参数的选择大部分是依靠经验.没有能够及时利用网络的反馈信息,故算法的搜索速度比较慢,要得要较精确的解需要较多的训练时间。三、 算法对初始种群的选择有一定的依赖性,能够结合一些启发算法进行改进。4 KNN 算法(K-Nearest Neighbour) 的优缺点KNN 算法的优点:一、 简单、有效。二、 重新训练的代价较低(类别体系的变化和训练集的变化,在 Web 环境和电子商务应用中是很常见的) 。三、 计算时间和空间线性于训练集的规模(在一些场合不算太大) 。四、 由于 KNN 方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确

14、定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN 方法较其他方法更为适合。五、 该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。KNN 算法缺点:一、 KNN 算法是懒散学习方法(lazy learning,基本上不学习) ,一些积极学习的算法要快很多。二、 类别评分不是规格化的(不像概率评分) 。三、 输出的可解释性不强,例如决策树的可解释性较强。四、 该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的 K 个邻居中大容量类的样本占多数。

15、该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。五、 计算量较大。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。5 支持向量机(SVM)的优缺点SVM 的优点:一、 可以解决小样本情况下的机器学习问题。二、 可以提高泛化性能。三、 可以解决高维问题。四、 可以解决非线性问题。五、 可以避免神经网络结构选择和局部极小点问题。SVM 的缺点:一、 对缺失数据敏感。二、 对非线性问题没有通用解决方案,必须谨慎选择 Kernelfunction 来处理。6 朴素贝叶斯的优缺点优点:一、 朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。二、

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 医学/心理学 > 综合/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号