分类与预测培训教材.ppt

上传人:F****n 文档编号:96078218 上传时间:2019-08-23 格式:PPT 页数:72 大小:875KB
返回 下载 相关 举报
分类与预测培训教材.ppt_第1页
第1页 / 共72页
分类与预测培训教材.ppt_第2页
第2页 / 共72页
分类与预测培训教材.ppt_第3页
第3页 / 共72页
分类与预测培训教材.ppt_第4页
第4页 / 共72页
分类与预测培训教材.ppt_第5页
第5页 / 共72页
点击查看更多>>
资源描述

《分类与预测培训教材.ppt》由会员分享,可在线阅读,更多相关《分类与预测培训教材.ppt(72页珍藏版)》请在金锄头文库上搜索。

1、第3章 分类与预测,主要内容,分类与决策树概述 ID3、C4.5与C5.0 CART,分类 VS. 预测,分类和预测是两种数据分析形式,用于提取描述重要数据类或预测未来的数据趋势 的模型 分类: 预测类对象的分类标号(或离散值) 根据训练数据集和类标号属性,构建模型来分类现有数据,并用来分类新数据 预测: 建立连续函数值模型 比如预测空缺值,或者预测顾客在计算机设备上的花费 典型应用 欺诈检测、市场定位、性能预测、医疗诊断,分类是一种应用非常广泛的数据挖掘技术 分类与预测的区别: 当估计的属性值是离散值时,这就是分类; 当估计的属性值是连续值时,这就是预测。,分类和预测-示例,分类 银行贷款员

2、需要分析数据,来弄清哪些贷款申请者是安全的,哪些是有风险的(将贷款申请者分为“安全”和“有风险”两类) 我们需要构造一个分类器来预测类属编号,比如预测顾客属类 预测 银行贷款员需要预测贷给某个顾客多少钱是安全的 构造一个预测器,预测一个连续值函数或有序值,常用方法是回归分析,数据分类一个两步过程 (1),第一步,也成为学习步,目标是建立描述预先定义的数据类或概念集的分类器 分类算法通过分析或从训练集“学习”来构造分类器。 训练集由数据库元组(用n维属性向量表示)和他们相对应的类编号组成;假定每个元组属于一个预定义的类 训练元组:训练数据集中的单个元组 学习模型可以用分类规则、决策树或数学公式的

3、形式提供,数据分类一个两步过程 (2),第二步,使用模型,对将来的或未知的对象进行分类 首先评估模型的预测准确率 对每个测试样本,将已知的类标号和该样本的学习模型类预测比较 模型在给定测试集上的准确率是正确被模型分类的测试样本的百分比 测试集要独立于训练样本集,否则会出现“过分拟合”的情况,第一步建立模型,训练数 据集,分类算法,IF rank = professor OR years 6 THEN tenured = yes,分类规则,第二步用模型进行分类,分类规则,测试集,未知数据,(Jeff, Professor, 4),Tenured?,监督学习 VS. 无监督学习,监督学习(用于分类

4、) 模型的学习在被告知每个训练样本属于哪个类的“指导”下进行 新数据使用训练数据集中得到的规则进行分类 无监督学习(用于聚类) 每个训练样本的类编号是未知的,要学习的类集合或数量也可能是事先未知的 通过一系列的度量、观察来建立数据中的类编号或进行聚类,数据预测的两步过程,数据预测也是一个两步的过程,类似于前面描述的数据分类 对于预测,没有“类标号属性” 要预测的属性是连续值,而不是离散值,该属性可简称“预测属性” E.g. 银行贷款员需要预测贷给某个顾客多少钱是安全的 预测器可以看作一个映射或函数y=f(X) 其中X是输入;y是输出,是一个连续或有序的值 与分类类似,准确率的预测,也要使用单独

5、的测试集,3.1 决策树概述,决策树(Decision Tree) 一种描述概念空间的有效的归纳推理办法。基于决策树的学习方法可以进行不相关的多概念学习,具有简单快捷的优势,已经在各个领域取得广泛应用。,决策树是一种树型结构,其中每个内部结点表示在一个属性上的测试,每个分支代表一个测试输出,每个叶结点代表一种类别。,决策树学习是以实例为基础的归纳学习。 从一类无序、无规则的事物(概念)中推理出决策树表示的分类规则。 概念分类学习算法:来源于 Hunt,Marin和Stone 于1966年研制的CLS学习系统,用于学习单个概念。 1979年, J.R. Quinlan 给出ID3算法,并在198

6、3年和1986年对ID3 进行了总结和简化,使其成为决策树学习算法的典型。 Schlimmer 和Fisher 于1986年对ID3进行改造,在每个可能的决策树节点创建缓冲区,使决策树可以递增式生成,得到ID4算法。 1988年,Utgoff 在ID4基础上提出了ID5学习算法,进一步提高了效率。 1993年,Quinlan 进一步发展了ID3算法,改进成C4.5算法。 另一类决策树算法为CART,与C4.5不同的是,CART的决策树由二元逻辑问题生成,每个树节点只有两个分枝,分别包括学习实例的正例与反例。 其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子节点处的熵值为零,此时每个叶

7、节点中的实例都属于同一类。,决策树学习采用的是自顶向下的递归方法。 决策树的每一层节点依照某一属性值向下分为子节点,待分类的实例在每一节点处与该节点相关的属性值进行比较,根据不同的比较结果向相应的子节点扩展,这一过程在到达决策树的叶节点时结束,此时得到结论。 从根节点到叶节点的每一条路经都对应着一条合理的规则,规则间各个部分(各个层的条件)的关系是合取关系。整个决策树就对应着一组析取的规则。 决策树学习算法的最大优点是,它可以自学习。在学习的过程中,不需要使用者了解过多背景知识,只需要对训练例子进行较好的标注,就能够进行学习。如果在应用中发现不符合规则的实例,程序会询问用户该实例的正确分类,从

8、而生成新的分枝和叶子,并添加到树中。,树是由节点和分枝组成的层次数据结构。节点用于存贮信息或知识,分枝用于连接各个节点。树是图的一个特例,图是更一般的数学结构,如贝叶斯网络。 决策树是描述分类过程的一种数据结构,从上端的根节点开始,各种分类原则被引用进来,并依这些分类原则将根节点的数据集划分为子集,这一划分过程直到某种约束条件满足而结束。,可以看到,一个决策树的内部结点包含学习的实例,每层分枝代表了实例的一个属性的可能取值,叶节点是最终划分成的类。如果判定是二元的,那么构造的将是一棵二叉树,在树中每回答一个问题就降到树的下一层,这类树一般称为CART(Classification And Re

9、gression Tree)。 判定结构可以机械的转变成产生式规则。可以通过对结构进行广度优先搜索,并在每个节点生成“IFTHEN”规则来实现。如图6-13的决策树可以转换成下规则: IF “个子大” THEN IF “脖子短” THEN IF “鼻子长” THEN 可能是大象 形式化表示成,构造一棵决策树要解决四个问题: 收集待分类的数据,这些数据的所有属性应该是完全标注的。 设计分类原则,即数据的哪些属性可以被用来分类,以及如何将该属性量化。 分类原则的选择,即在众多分类准则中,每一步选择哪一准则使最终的树更令人满意。 设计分类停止条件,实际应用中数据的属性很多,真正有分类意义的属性往往是

10、有限几个,因此在必要的时候应该停止数据集分裂: 该节点包含的数据太少不足以分裂, 继续分裂数据集对树生成的目标(例如ID3中的熵下降准则)没有贡献, 树的深度过大不宜再分。 通用的决策树分裂目标是整棵树的熵总量最小,每一步分裂时,选择使熵减小最大的准则,这种方案使最具有分类潜力的准则最先被提取出来,预测变量,目标变量,记录 样本,类标号属性,类别集合:Class=“优”,“良”,“差”,决策树的基本原理,根节点,叶子节点,分裂属性,分裂谓词,每一个叶子节点都被确定一个类标号,每一个节点都代表了一个数据集。 根节点1代表了初始数据集D 其它节点都是数据集D的子集。 例如,节点2代表数据集D中年龄

11、小于40岁的那部分样本组成的数据集。 子节点是父节点的子集。 If (年龄3000) Then 信用等级=“优”,决策树是指具有下列三个性质的树: 每个非叶子节点都被标记一个分裂属性Ai; 每个分支都被标记一个分裂谓词,这个分裂谓词是分裂父节点的具体依据; 每个叶子节点都被标记一个类标号CjC。 任何一个决策树算法,其核心步骤都是为每一次分裂确定一个分裂属性,即究竟按照哪一个属性来把当前数据集划分为若干个子集,从而形成若干个“树枝”。,熵,是数据集中的不确定性、突发性或随机性的程度的度量。 当一个数据集中的记录全部都属于同一类的时候,则没有不确定性,这种情况下的熵就为0。 决策树分裂的基本原则

12、是,数据集被分裂为若干个子集后,要使每个子集中的数据尽可能的“纯”,也就是说子集中的记录要尽可能属于同一个类别。如果套用熵的概念,即要使分裂后各子集的熵尽可能的小。,3.2 ID3、C4.5与C5.0,数据集D被按照分裂属性“年龄”分裂为两个子集D1 和D2,信息增益: Gain(D,年龄)= H(D)P(D1)H(D1)+ P(D2)H(D2),显然,如果D1和D2中的数据越“纯”,H(D1)和H(D2)就越小,信息增益就越大,或者说熵下降得越多。 按照这个方法,测试每一个属性的信息增益,选择增益值最大的属性作为分裂属性。,信息熵计算举例,令C1对应“是”,C2对应“否”。那么C1有9个样本

13、,C2有5个样本,所以数据集D的熵为:,决策树归纳策略 (1),输入 数据划分D是训练元组和对应类标号的集合 attribute_list,候选属性的集合 Attribute_selection_method,指定选择属性的启发性过程 算法步骤 树以代表训练样本的单个节点(N)开始 如果样本都在同一个类,则该节点成为树叶,并用该类标记 否则,算法调用Attribute_selection_method,选择能够最好的将样本分类的属性;确定“分裂准则”,指出“分裂点”或“分裂子集”。,决策树归纳策略 (2),对测试属性每个已知的值,创建一个分支,并以此划分元组 算法使用同样的过程,递归的形成每个

14、划分上的元组决策树。一旦一个属性出现在一个节点上,就不在该节点的任何子节点上出现 递归划分步骤停止的条件 划分D(在N节点提供)的所有元组属于同一类 没有剩余属性可以用来进一步划分元组使用多数表决 没有剩余的样本 给定分支没有元组,则以D中多数类创建一个树叶,属性选择度量,属性选择度量是一种选择分裂准则,将给定类标号的训练元组最好的进行划分的方法 理想情况,每个划分都是“纯”的,即落在给定划分内的元组都属于相同的类 属性选择度量又称为分裂准则 常用的属性选择度量 信息增益 增益率 Gini指标,信息增益 (1),S是一个训练样本的集合,该样本中每个集合的类编号已知。每个样本为一个元组。有个属性

15、用来判定某个训练样本的类编号 假设S中有m个类,总共s个训练样本,每个类Ci有si个样本(i1,2,3.m),那么任意一个样本属于类Ci的概率是si / s,那么用来分类一个给定样本的期望信息是:,信息增益 (2),一个有v个值的属性Aa1,a2,.,av可以将S分成v个子集S1,S2,.,Sv,其中Sj包含S中属性A上的值为aj的样本。假设Sj包含类Ci的sij个样本。根据A的这种划分的期望信息称为A的熵 A上该划分的获得的信息增益定义为: 具有高信息增益的属性,是给定集合中具有高区分度的属性。所以可以通过计算S中样本的每个属性的信息增益,来得到一个属性的相关性的排序。,若以“年龄”作为分裂

16、属性,则产生三个子集(因为该属性有三个不同的取值),所以D按照属性“年龄”划分出的三个子集的熵的加权和为:,其中有一个子集的熵为0,同理,若以“收入水平”为分裂属性:,若以“有固定收入”为分裂属性: 若以“VIP”为分裂属性:,以“年龄”作为分裂属性,所得信息增益最大。,叶子节点,ID3的主要缺点,ID3算法只能处理分类属性(离散属性),而不能处理连续属性(数值属性)。在处理连续属性时,一般要先将连续属性划分为多个区间,转化为分类属性。例如“年龄”,要把数值事先转换为诸如“小于30岁”、“30至50岁”、“大于50岁”这样的区间,再根据年龄值落入了某一个区间取相应的类别值。通常,区间端点的选取包含着一定的主观因素。 ID3生成的决策树是一棵多叉树,分支的数量取决于分裂属性有多少个不同的取值。这不利于处理分裂属性取值数目较多的情况。因此目前流行的决策树算法大多采用二叉树模型。,ID3是采用“信息增益”来选择分裂属性的。虽然这是一种有效的方法,但

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > PPT模板库 > PPT素材/模板

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号