[精选]决策树简介

上传人:我**** 文档编号:183319581 上传时间:2021-06-02 格式:PPTX 页数:46 大小:1,013.27KB
返回 下载 相关 举报
[精选]决策树简介_第1页
第1页 / 共46页
[精选]决策树简介_第2页
第2页 / 共46页
[精选]决策树简介_第3页
第3页 / 共46页
[精选]决策树简介_第4页
第4页 / 共46页
[精选]决策树简介_第5页
第5页 / 共46页
点击查看更多>>
资源描述

《[精选]决策树简介》由会员分享,可在线阅读,更多相关《[精选]决策树简介(46页珍藏版)》请在金锄头文库上搜索。

1、决策树,第十组: 郭浩 韩学成 何珺 何军 黄安迪,4.1 数据分类介绍,分类是数据挖掘的一个重要课题, 它的目的是: 构造一个分类函数或分类模型, 该模型能把数据库中的数据项映射到给定类别中的某一个。 数据分类的过程一般来说主要包含两个步骤 第一步, 建立一个描述已知数据集类别或概念的模型 第二步, 利用所获得的模型进行分类操作,4.1 数据分类介绍-2,第一步, 建立一个描述已知数据集类别或概念的模型 该模型是通过对数据库中各数据进行内容的分析而获得的。 分类学习方法所使用的数据集称为训练样本集合,每一数据行都属于一个确定的数据类别,其类别值是由一个属性来描述的(被称为类别标记属性)。 因

2、此分类学习又可称为监督学习,它是在已知训练样本类别情况下,通过学习建立相应模型。而无监督学习则是在训练样本的类别与类别个数均未知的情况下进行的,如聚类分析。,4.1 数据分类介绍-2,第二步, 利用所获得的模型进行分类操作 首先对模型分类准确率进行估计。 模型的准确性可以通过由该模型所正确分类的测试样本个数所占总测试样本的比例得到。即对于每一个测试样本,比较其已知的类别与学习所获模型的预测类别。 如果一个学习所获模型的准确率经测试被认为是可以接受的,那么就可以使用这一模型对未来数据行或对象(其类别未知)进行分类,即利用学习所获得的模型进行预测,对未知类别的数据行或对象判断其类别(属性)取值。,

3、由训练数据产生分类规则,由分类规则对新的样本数据进行分类,4.1 决策树介绍-2,常用的分类预测算法: 决策树归纳分类 贝叶斯分类 基于规则的分类 用后向传播分类 遗传算法、粗糙集方法、模糊集方法,4.1 决策树介绍-2,4.1.1 决策树的基本知识 决策树方法最早产生于20世纪60年代,是由Hunt等人研究人类概念建模时建立的学习系统CLS(concept learning system)。到了70年代末,J. Ross Quinlan提出ID3算法,引进信息论中的有关思想,提出用信息增益(information gain)作为特征判别能力的度量,来选择属性作为决策树的节点,并将建树的方法嵌

4、在一个迭代的程序之中。当时他的主要目的在于减少树的深度,却忽略了叶子数目的研究。1975年和1984年,分别有人提出了CHAID和CART算法。1986年,J. C. Schlinner提出ID4算法。1988年,P. E. Utgoff 提出ID5R算法。1993年,Quinlan本人以ID3算法为基础研究出C4.5算法。新算法在对预测变量的缺失值处理、剪枝技术、派生规则等方面作了较大的改进,C5.0是C4.5的商业改进版。,例子,关于上mooc的例子,例子,4.1.1 决策树的基本知识,决策树技术发现数据模式和规则的核心是归纳算法。 归纳是从特殊到一般的过程。 归纳推理从若干个事实表征出的

5、特征、特性或属性中, 通过比较、总结、概括而得出一个规律性的结论。 归纳学习的过程就是寻找一般化描述(归纳断言)的过程。这种一般化描述能够解释给定的输入数据,并可以用来预测新的数据。 归纳学习由于依赖于经验数据,因此又称作经验学习。,4.1.1 决策树的基本知识-2,归纳学习存在一个基本假定: 任一模型如果能在足够大的训练样本集中很好地逼近目标函数,则它也能在未见样本中很好地逼近目标函数。这个假定是归纳学习有效性的前提条件。,4.1.1 决策树的基本知识-2,归纳可以分为自下而上、自上而下和双向搜索三种方式 自下而上法一次处理一个输入对象,将描述逐步一般化,直到最终的一般化描述。 自上而下法则

6、对可能的一般化描述集进行搜索,试图找到一些满足一定要求的最优的描述。 双向搜索方式则是这两者的结合。,4.1.1 决策树的基本知识-2,先根据训练子集形成决策树,如果该树不能对所有对象给出正确的分类,那么选择一些例外加入到训练集中,重复该过程一直到形成正确的决策集。 最终结果是“一棵树”,各分枝对应某种属性的某一可能值。,4.1.1 决策树的基本知识,决策树通常有两大类型,分别为分类决策树和回归决策树。 分类决策树用来实现对定类或定序目标变量的分类,回归决策树则完成对定距目标变量取值的预测。 根据决策树各种不同的属性,可分为以下几类: 决策树内节点的测试属性可能是单变量的,即每个内节点只包含一

7、个 属性; 也可能是多变量的,既存在包含多个属性的内节点。 测试属性的不同属性值的个数,可能使得每个内节点有两个或多个 分枝。如果一棵决策树每个内节点只有两个分枝则称之为二叉 决策树,如由CART算法生成的决策树。 每个属性可能是值类型(连续值),也可能是枚举类型(离散值)。 分类结果既可能是两类也有可能是多类,如果二叉决策树的结果只有 两类,则称之为布尔决策树。,4.1.1 决策树的基本知识,决策树学习是应用最广的归纳推理算法之一。它是一种逼近离散函数值的方法,分类精度高,操作简单,并且对噪声数据有很好的稳健性,因而成为比较实用且比较流行的数据挖掘算法。 它的最大优点是,在学习过程中不需要使

8、用者了解很多背景知识,只要训练样本集能够用“属性-值”的方式表达出来就能使用决策树学习算法来分类。,4.1.1 决策树的基本知识,4.2.4 属性选择 属性选择的统计度量(又称为分枝指标splitting index,SI )的计算是决策树构建算法的关键。 不同的决策树算法采用不同的统计度量,主要有: 信息增益Information Gain ( ID3和C4.5算法使用), 所有属性假设都是种类字段,经过修改之后可以适用于 数值字段; 基尼指数Gini index(即Gini指标) CART算法、CHAID算法和SLIQ算法使用 适用于种类和数值字段等等。,4.1.1 决策树的基本知识-2,

9、决策树方法的(相对)优点: 可以生成可理解的规则数据挖掘产生的模式的可理解度是判别数据挖掘算法的主要指标之一,相比于一些数据挖掘算法,决策树算法产生的规则比较容易理解,并且决策树模型的建立过程也很直观。 计算量较小。 可以处理连续和集合属性。 决策树的输出包含属性的排序生成决策树时,按照最大信息增益选择测试属性,因此,在决策树中可以大致判断属性的相对重要性。,4.1.1 决策树的基本知识-2,决策树方法的缺点: 对于具有连续值的属性预测比较困难。 - 对于顺序相关的数据,需要很多预处理的工作。 当类别太多时,通常会增加误差 分枝间的拆分不够平滑,进行拆分时,不考虑其对将来拆分的影响。 缺值数据

10、处理问题: 因为决策树进行分类预测时,完全基于数据的测试属性,所以对于测试属性缺失的数据,决策树将无法处理。 通常仅根据单个属性来分类: 决策树方法根据单个属性对数据进行分类,而在实际的分类系统中,类的划分不仅仅与单个属性有关,往往与一个属性集有关。因此,将决策树算法推广到考虑多属性是一个有待研究的课题。,4.1.1 决策树的基本知识-2,决策树学习算法适用的问题: 样本可以用“属性-值”的方式来描述 目标函数的输出值为离散值 训练数据中允许包含有错误: 样本的分类错误或属性值错误都允许 训练数据中有样本属性值缺失,4.1 决策树介绍-2,4.1.2 决策树的应用和发展趋势 决策树由于结构简单

11、、效率高等优点而获得了广泛的应用。决策树在商业、工业、天文、医学、风险分析、社会科学和分类学等领域的应用已经取得了很好的经济和社会效益。国内目前有关决策树的研究多是围绕算法的改进以及决策树在商业、工业等领域的运用。 在商业领域,决策树方法所能解决的典型商业问题有:客户关系 管理、数据库营销、客户群体划分、交叉销售等市场分析 行为,以及客户流失分析、客户信用计分及欺诈发现,等等。 在工业领域,决策树可以用于故障诊断、工业生产过程控制等。 在医学领域,决策树方法可用于疾病诊断治疔、 基因与高分子序列分析、医院信息系统挖掘及医疗政策分析等。,4.2 树的建模过程,4.2 树的建模过程,决策树算法通过

12、构造决策树来发现数据中蕴涵的分类规则,包含许多种不同的算法,主要可以分为三类: (1)基于统计学理论的方法,以CART为代表,在这类算法中,对于非终端节点来说,有两个分枝; (2)基于信息理论的方法,以ID3算法为代表,此类算法中,非终端的节点的分枝由样本类别个数决定; (3)以AID,CHAD为代表的算法,在此类算法中,非终端节点的分枝数在2至样本类别个数范围内分布。 这些算法在分类中应用的过程与思想基本上是一致的。 如何构造精度高、规模小的决策树是决策树算法的核心内容,4.2 树的建模过程总体步骤,决策树的构造基本可以分为如下两步: 决策树的生成 决策树的生成是指由训练样本数据集生成决策树

13、的过程。一般情况下,训练样本数据集是根据实际需要由实际的历史数据生成的、有一定综合程度的、用于数据分析处理的数据集。 决策树的剪枝 决策树剪枝是对上一阶段所生成的决策树进行检验、校正和修正的过程,主要是采用新的样本数据集(测试数据集)中的数据检验决策树生成过程中产生的初步规则,将那些影响预测准确性的分枝剪除。一般情况下,根据测试数据集中的每一元组对生成的规则进行预测准确性的检验,如果预测准确性过低,则将该分枝剪除。,4.2 树的建模过程,4.2.1 数据要求(数据准备) 在进行分类和预测挖掘之前,首先必须准备好有关挖掘数据。一般需要对数据进行以下预处理,以帮助提高分类和预测过程的准确性、有效性

14、和可伸缩性。主要的工作包括: 数据清洗 相关分析 数据转换,4.2.1 数据准备,数据清洗 这一数据预处理步骤,主要是帮助除去数据中的噪声,并妥善解决缺失数据问题,尽管大多数分类算法都包含一些处理噪声和缺失数据的方法,但这一预处理步骤可以有效减少学习过程可能出现相互矛盾情况的问题。,4.2.1 数据准备,相关分析 由于数据集中的许多属性与挖掘任务本身可能是无关的,例如记录银行贷款申请(单)填写时的星期数(属性),就可能与申请成功与否的描述无关。此外,有些属性也可能是冗余的。因此需要对数据进行相关分析,以使在学习阶段之前就消除无关或冗余属性。在机器学习中,这一相关分析步骤被称为属性选择(feat

15、ure selection) ,包含与挖掘任务无关的属性可能会减缓甚至误导整个学习过程。,4.2.1 数据准备,数据转换 利用概念层次树,数据能够被泛化到更高的层次。概念层次树对连续数值的转换非常有效。例如,属性“收入”的数值就可以被泛化为若干离散区间,诸如低、中和高。由于泛化操作压缩了原来的数据集,从而可以帮助有效减少学习过程所涉及的输入输出操作。,4.2 树的建模过程,4.2.2 树的生长 决策树算法是一种常用的数据挖掘算法,它是从机器学习领域中逐渐发展起来的一种分类函数逼近方法。决策树学习的基本算法是贪心算法,采用自上而下的递归方式构造决策树。Hunt等人于1966年提出的概念学习系统(

16、concept learning system ,CLS)是最早的决策树算法,以后的许多决策树算法都是对CLS算法的改进或由CLS衍生而来。目前,利用决策树进行数据分类的方法已经被深入研究,并且形成了许多决策树算法。,4.2.2 树的生长,决策树是“一棵树”,它的根节点是整个数据集合空间,每个分节点是对一个单一变量(属性)的测试,该测试将数据集合空间分割成两个或更多块。每个叶节点是属于单一类别的记录。,4.2.2 树的生长,通常, 通过自上而下递归分割的过程来构建决策树, 分为三个步骤: (1) 寻找初始分裂。整个训练集作为产生决策树的集合, 训练集每个记录必须是已经分好类的。决定哪个属性(field)域作为目前最好的分类指标。一般的做法是穷尽所有的属性域,对每个属性域分裂的好坏做出量化,计算出最好的一个分裂。 (2) 树增长到一棵完整的树。重复第一步,直至每个叶节点 内的记录都属于同一类,或达到其他停止准则。 (3)数据的修剪。去掉一些可能是噪音或者异常的数据或节点,4.2.2 树的生长,其通用的基本算法(贪心算法)为: 以自上而下分而治之的方法,开始时,所有的数据都在根节点;属性都

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 商业/管理/HR > 其它文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号