决策树学习相关资料1

上传人:F****n 文档编号:95512560 上传时间:2019-08-20 格式:PPT 页数:25 大小:617KB
返回 下载 相关 举报
决策树学习相关资料1_第1页
第1页 / 共25页
决策树学习相关资料1_第2页
第2页 / 共25页
决策树学习相关资料1_第3页
第3页 / 共25页
决策树学习相关资料1_第4页
第4页 / 共25页
决策树学习相关资料1_第5页
第5页 / 共25页
点击查看更多>>
资源描述

《决策树学习相关资料1》由会员分享,可在线阅读,更多相关《决策树学习相关资料1(25页珍藏版)》请在金锄头文库上搜索。

1、一.示例学习 示例学习也称实例学习, 它是一种归纳学习。示例学习是从若干实例(包括正例和反例)中归纳出一般概念或规则的学习方法。,第一个拱桥的语义网络,第二个拱桥的语义网络,学习程序归纳出的语义网络,拱桥概念的语义网络,例 1 假设示例空间中有桥牌中“同花“概念的两个示例: 示例1: 花色(c1,梅花)花色(c2,梅花)花色(c3,梅花)花色(c4,梅花)同花(c1,c2,c3,c4) 示例2: 花色(c1,红桃)花色(c2,红桃)花色(c3,红桃)花色(c4,红桃)同花(c1,c2,c3,c4) 关于同花的一般性规则: 花色(c1,x)花色(c2,x)花色(c3,x)花色(c4,x)同花(c

2、1,c2,c3,c4),对于这个问题可采用通常的曲线拟合技术,归纳出规则: (x,y,2x+3y+1) 即 z2x3y1,例2 假设示例空间存放有如下的三个示例: 示例1:(0,2,7) 示例2:(6,-1,10) 示例3:(-1,-5,-10) 这是三个3维向量,表示空间中的三个点。现要求求出过这三点的曲线。,二.决策树学习 1什么是决策树 决策树(decision tree)也称判定树,它是由对象的若干属性、属性值和有关决策组成的一棵树。其中的节点为属性(一般为语言变量),分枝为相应的属性值(一般为语言值)。从同一节点出发的各个分枝之间是逻辑“或”关系;根节点为对象的某一个属性;从根节点到

3、每一个叶子节点的所有节点和边,按顺序串连成一条分枝路径,位于同一条分枝路径上的各个“属性-值”对之间是逻辑“与”关系,叶子节点为这个与关系的对应结果,即决策。,决策树示意图,例3 下图所示是机场指挥台关于飞机起飞的简单决策树。,例4 下图是一个描述“兔子”概念的决策树。,2. 怎样学习决策树 决策树学习的基本方法和步骤: 首先,选取一个属性,按这个属性的不同取值对实例集进行分类;并以该属性作为根节点,以这个属性的诸取值作为根节点的分枝,进行画树。 然后,考察所得的每一个子类,看其中的实例的结论是否完全相同。如果完全相同,则以这个相同的结论作为相应分枝路径末端的叶子节点;否则,选取一个非父节点的

4、属性,按这个属性的不同取值对该子集进行分类,并以该属性作为节点,以这个属性的诸取值作为节点的分枝,继续进行画树。 如此继续,直到所分的子集全都满足:实例结论完全相同,而得到所有的叶子节点为止。, 决策树学习举例 设表1 所示的是某保险公司的汽车驾驶保险类别划分的部分事例。我们将这张表作为一个实例集,用决策树学习来归纳该保险公司的汽车驾驶保险类别划分规则。,表1 汽车驾驶保险类别划分实例集,将实例集简记为 S=(1,C), (2,C), (3,C), (4,B), (5,A), (6,A), (7,C), (8,B), (9,A), (10,A), (11,B), (12,B) 其中每个元组表示

5、一个实例,前面的数字为实例序号,后面的字母为实例的决策项保险类别。 用 “小”、“中”、“大” 分别代表 “21”、“21且25”、“25” 这三个年龄段。,对于S,我们按属性“性别”的不同取值将其分类。由表1 可见,这时S应被分类为两个子集: S1= (3,C), (4,B), (7,C), (8,B), (11,B), (12,B) S2=(1,C), (2,C), (5,A), (6,A), (9,A), (10,A) 于是,我们得到以性别作为根节点的部分决策树(见下图)。,决策树生成过程,决策树生成过程,决策树生成过程,最后生成的 决策树,由决策树所得的规则集: 女性且年龄在25岁以上

6、,则给予A类保险; 女性且年龄在21岁到25岁之间,则给予A类保险; 女性且年龄在21岁以下,则给予C类保险; 男性且年龄在25岁以上,则给予B类保险; 男性且年龄在21岁到25岁之间且未婚,则给予C类保险; 男性且年龄在21岁到25岁之间且已婚,则给予B类保险; 男性且年龄在21岁以下且未婚,则给予C类保险; 男性且年龄在21岁以下且已婚,则给予B类保险。,3. ID3算法 ID3算法是一个经典的决策树学习算法,由Quinlan于1979年提出。ID3算法的基本思想是,以信息熵为度量,用于决策树节点的属性选择,每次优先选取信息量最多的属性,亦即能使熵值变成最小的属性,以构造一棵熵值下降最快的

7、决策树,到叶子节点处的熵值为0。此时,每个叶子节点对应的实例集中的实例属于同一类。,(1)信息熵和条件熵 设S是一个实例集(S也可以是子实例集),A为S中实例的一个属性。H(S)和H(S|A)分别称为实例集S的信息熵和条件熵, 其计算公式如下: 其中,i(i=1, 2, , n)为S中各实例所有可能的结论;lb即log2。 其中,ak(k=1, 2, , m)为属性A的取值, Sak为按属性A对实例集S进行分类时所得诸子类中与属性值ak对应的那个子类。,(2)基于条件熵的属性选择,按性别划分, 实例集S被分为两个子类:,S男 =(3,C), (4,B), (7,C), (8,B), (11,B), (12,B) S女 =(1,C), (2,C), (5,A), (6,A), (9,A), (10,A),从而, 对子集S男而言,对子集S女而言,于是, 由公式(9-1)有:,又,将以上3式代入公式(9-2)得:,用同样的方法可求得:,可见, 条件熵H(S|性别)为最小,所以,应取“性别”这一属性对实例集进行分类, 即以“性别”作为决策树的根节点。,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > PPT模板库 > PPT素材/模板

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号