R语言与机器学习决策树算法

上传人:平*** 文档编号:12792589 上传时间:2017-10-20 格式:DOCX 页数:19 大小:320.23KB
返回 下载 相关 举报
R语言与机器学习决策树算法_第1页
第1页 / 共19页
R语言与机器学习决策树算法_第2页
第2页 / 共19页
R语言与机器学习决策树算法_第3页
第3页 / 共19页
R语言与机器学习决策树算法_第4页
第4页 / 共19页
R语言与机器学习决策树算法_第5页
第5页 / 共19页
点击查看更多>>
资源描述

《R语言与机器学习决策树算法》由会员分享,可在线阅读,更多相关《R语言与机器学习决策树算法(19页珍藏版)》请在金锄头文库上搜索。

1、算法二:决策树算法决策树定义首先,我们来谈谈什么是决策树。我们还是以鸢尾花为例子来说明这个问题。观察上图,我们判决鸢尾花的思考过程可以这么来描述:花瓣的长度小于2.4cm 的是 setosa(图中绿色的分类),长度大于 1cm 的呢?我们通过宽度来判别,宽度小于 1.8cm 的是 versicolor(图中红色的分类),其余的就是 virginica(图中黑色的分类)我们用图形来形象的展示我们的思考过程便得到了这么一棵决策树:这种从数据产生决策树的机器学习技术叫做决策树学习, 通俗点说就是决策树,说白了,这是一种依托于分类、训练上的预测树,根据已知预测、归类未来。前面我们介绍的 k-近邻算法也

2、可以完成很多分类任务,但是他的缺点就是含义不清,说不清数据的内在逻辑,而决策树则很好地解决了这个问题,他十分好理解。从存储的角度来说,决策树解放了存储训练集的空间,毕竟与一棵树的存储空间相比,训练集的存储需求空间太大了。决策树的构建一、KD3 的想法与实现下面我们就要来解决一个很重要的问题:如何构造一棵决策树?这涉及十分有趣的细节。先说说构造的基本步骤,一般来说,决策树的构造主要由两个阶段组成:第一阶段,生成树阶段。选取部分受训数据建立决策树,决策树是按广度优先建立直到每个叶节点包括相同的类标记为止。第二阶段,决策树修剪阶段。用剩余数据检验决策树,如果所建立的决策树不能正确回答所研究的问题,我

3、们要对决策树进行修剪直到建立一棵正确的决策树。这样在决策树每个内部节点处进行属性值的比较,在叶节点得到结论。从根节点到叶节点的一条路径就对应着一条规则,整棵决策树就对应着一组表达式规则。问题:我们如何确定起决定作用的划分变量。我还是用鸢尾花的例子来说这个问题思考的必要性。使用不同的思考方式,我们不难发现下面的决策树也是可以把鸢尾花分成 3 类的。为了找到决定性特征,划分出最佳结果,我们必须认真评估每个特征。通常划分的办法为信息增益和基尼不纯指数,对应的算法为 C4.5 和 CART。关于信息增益和熵的定义烦请参阅百度百科,这里不再赘述。直接给出计算熵与信息增益的 R 代码:1、 计算给定数据集

4、的熵calcent mudatx y z1 1 1 y2 1 1 y3 1 0 n4 0 1 n5 0 1 n计算熵 calcent(mudat)10.9709506熵越高,混合的数据也越多。得到熵之后,我们就可以按照获取最大信息增益的方法划分数据集2、 按照给定特征划分数据集为了简单起见,我们仅考虑标称数据(对于非标称数据,我们采用划分的办法把它们化成标称的即可)。R 代码:split split(mudat,1,1)y z1 1 y2 1 y3 0 n split(mudat,1,0)y z4 1 n5 1 n3、选择最佳划分(基于熵增益)choosebestinfogain)bestin

5、fogain choose(mudat)1 1也就是告诉我们,将第一个变量值为 1 的分一类,变量值为 0 的分为另一类,得到的划分是最好的。4、 递归构建决策树我们以脊椎动物数据集为例,这个例子来自数据挖掘导论,具体数据集已上传至百度云盘(点击可下载)我们先忽略建树细节,由于数据变量并不大,我们手动建一棵树先。animalschoose(animals)1 1这里变量 1 代表 names,当然是一个很好的分类,但是意义就不大了,我们暂时的解决方案是删掉名字这一栏,继续做有:choose(animals)1 4 我们继续重复这个步骤,直至 choose 分类为 0 或者没办法分类(比如som

6、etimes live in water 的动物)为止。得到最终分类树。给出分类逻辑图(遵循多数投票法):至于最后的建树画图涉及 R 的绘图包 ggplot,这里不再给出细节。下面我们使用著名数据集隐形眼镜数据集,利用上述的想法实现一下决策树预测隐形眼镜类型。这个例子来自机器学习实战,具体数据集已上传至百度云盘(点击可下载)。下面是一个十分简陋的建树程序(用 R 实现的),为了叙述方便,我们给隐形眼镜数据名称加上标称:age,prescript,astigmatic,tear rate.建树的 R 程序简要给出如下:bulidtreebulidtree(lenses)1 41finish1 3

7、1 11finish1finish1 11finish1finish1 21finish1 11finish1finish1finish这棵树的解读有些麻烦,因为我们没有打印标签,(程序的简陋总会带来这样,那样的问题,欢迎帮忙完善),人工解读一下:首先利用 4(tear rate)的特征 reduce,normal 将数据集划分为 nolenses(至此完全分类),normal 的情况下,根据 3(astigmatic)的特征 no,yes 分数据集(划分顺序与因子在数据表的出现顺序有关),no 这条分支上选择 1(age)的特征pre,young,presbyopic 划分,前两个得到结果

8、soft,最后一个利用剩下的一个特征划分完结(这里,由于 split 函数每次调用时,都删掉了一个特征,所以这里的 1 是实际第二个变量,这个在删除变量是靠前的情形时要注意),yes 这条分支使用第 2 个变量 prescript 作为特征划分 my ope 划分完结,hyper 利用age 进一步划分,得到最终分类。画图说明逻辑: 这里并没有进行剪枝,可能出现过拟合情形,我们暂不考虑剪枝的问题,下面的问题我想是更加迫切需要解决的:在选择根节点和各内部节点中的分支属性时,采用信息增益作为评价标准。信息增益的缺点是倾向于选择取值较多的属性,在有些情况下这类属性可能不会提供太多有价值的信息。那么如

9、何处理这些问题,C4.5 算法不失为一个较好的解决方案。二、C4.5 算法 C4.5 算法描述 :(1) 创建根节点 N;(2) IF T 都属于同一类 C,则返回 N 为叶节点,标记为类 C;(3) IF T_attributelist 为空或 T 中所剩的样本数少于某给定值则返回 N 为叶节点,标记为 T 中出现最多的类;(4) FOR each T_attributelist 中的属性计算信息增益率 information gain ratio;(5) N 的测试属性 test_attribute=T_attributelist 中具有最高信息增益率的属性;(6) IF 测试属性为连续型

10、则找到该属性的分割阀值;(7) FOR each 由节点 N 长出的新叶节点IF 该叶节点对应的样本子集 T为空则分裂该叶节点生成一个新叶节点,将其标记为 T 中出现最多的类;ELSE 在该叶节点上执行 C4.5formtree(T,T_attributelist),对它继续分裂;(8) 计算每个节点的分类错误,进行树剪枝。以鸢尾花数据为例子,使用 C4.5 算法得到的分类树见下图:预测结果:观察预测 setosa versicolor virginicasetosa 50 0 0versicolor 0 49 1virginica 0 2 48下面我们使用上面提到的隐形眼镜数据集,利用 C4

11、.5 实现一下决策树预测隐形眼镜类型。得到结果:hard no lenses softhard 3 1 0no lenses 0 14 1soft 0 0 5看起来还不错,不是吗?(注:图片与预测表输出结果是已经经过剪枝的,所以可能和我们之前程序算出的有些不同)这里我们再次实现一下脊椎动物数据集的例子(使用 C4.5),得到的分类逻辑图(R 的直接输出结果):Give.Birth = no| Live.in.Water = no| | Can.Fly = no: reptiles (4.0/1.0)| | Can.Fly = yes: birds (3.0)| Live.in.Water =

12、sometimes: amphibians (4.0/2.0)| Live.in.Water = yes: fishes (2.0)Give.Birth = yes: mammals (7.0/1.0)这个分类与我们之前使用 ID3 分类得到的结果有所不同(搜索效率高了一些,准确率相当),使用信息增益倾向于多分类的贪心算法导致的不足在这里显示的淋漓尽致,更可以看出 C4.5 比 ID3 改进的地方绝不止能处理连续变量这一条。三、 CART 算法CART 算法描述(1) 创建根节点 N;(2) 为 N 分配类别;(3) IF T 都属于同一类别 OR T 中只剩一个样本则返回 N 为叶节点,为其

13、分配类别;(4) FOR each T_attributelist 中的属性执行该属性上的一个划分,计算此次划分的 GINI 系数;(5) N 的测试属性 test_attribute=T_attributelist 中具有最小 GINI 系数的属性;(6) 划分 T 得 T1、T2 两个子集;(7) 调用 cartformtree(T1);(8) 调用 cartformtree(T2);以鸢尾花数据集为例,使用 cart 算法,得到决策树:要实现 C4.5 算法,R 提供了一个程序包 RWeka,J48 函数可以实现决策树的构建,至于 cart 算法,R 中的 tree 包提供函数 tree

14、 来实现决策树的构建。下面我们来简要介绍他们:J48(formula, data, subset, na.action,control = Weka_control(), options = NULL)tree(formula, data, weights, subset,na.action = na.pass, control = tree.control(nobs, .),method = recursive.partition,split = c(deviance, gini),model = FALSE, x = FALSE, y = TRUE, wts = TRUE, .)split

15、 为划分指标,分为 deviance(偏差)和”gini”(基尼)control 涉及树剪枝的各种凶残细节,有兴趣的可以通过阅读帮助文档解决。而且剪枝是一个十分复杂的过程,剪枝也是视需求而定的,C4.5 是事后剪枝,id3 也就是我们试图实现的建树,也可以去手动剪枝。四、R 内置命令实现我们之前的 C4.5 的建树 R 代码如下:鸢尾花一例:library(RWeka)library(party)oldpar=par(mar=c(3,3,1.5,1),mgp=c(1.5,0.5,0),cex=0.3)data(iris)m1-J48(SpeciesPetal.Width+Petal.Lengt

16、h,data=iris)m1table(iris$Species,predict(m1)write_to_dot(m1)if(require(party,quietly=TRUE)plot(m1)隐形眼镜一例:lenses-read.csv(D:/R/data/lenses.csv,head=FALSE)m1-J48(V5.,data=lenses)m1table(lenses$V5,predict(m1)write_to_dot(m1)if(require(party,quietly=TRUE)plot(m1)CART 算法的鸢尾花例:library(tree)oldpar=par(mar=c(3,3,1.5,1),mgp=c(1.5,0.5,0)

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号