随机森林简介

上传人:工**** 文档编号:590646791 上传时间:2024-09-15 格式:PPT 页数:33 大小:663.50KB
返回 下载 相关 举报
随机森林简介_第1页
第1页 / 共33页
随机森林简介_第2页
第2页 / 共33页
随机森林简介_第3页
第3页 / 共33页
随机森林简介_第4页
第4页 / 共33页
随机森林简介_第5页
第5页 / 共33页
点击查看更多>>
资源描述

《随机森林简介》由会员分享,可在线阅读,更多相关《随机森林简介(33页珍藏版)》请在金锄头文库上搜索。

1、随机森林决策树分类器组合随机森林决策树的定义决策树是这样的一颗树:每个内部节点上选用一个属性进行分割每个分叉对应一个属性值每个叶子结点代表一个分类A1A2A3c1c2c1c2c1a11a12a13a21a22a31a32决策树框架决策树生成算法分成两个步骤树的生成开始,数据都在根节点递归的进行数据分片树的剪枝防止过拟合决策树使用: 对未知数据进行分割按照决策树上采用的分割属性逐层往下,直到一个叶子节点决策树续2分裂属性的选择度量原则:分类效果最好的(或分类最纯的,或能使树的路径最短)的属性常用度量n信息增益Information gain (ID3/C4.5)所有属性假设都是取离散值的字段(I

2、D3)经过修改之后可以适用于连续值字段(C4.5)n基尼指数Gini index (Classification and Regression Tress,CART,Breiman,1984)能够适用于离散和连续值字段信息增益任意样本分类的期望信息:I(s1,s2,sm)=Pi log2(pi) (i=1.m)其中,数据集为S,m为S的分类数目, Pi|Si/|S|Ci为某分类标号,Pi为任意样本属于Ci的概率, si为分类Ci上的样本数I(s1,s2,sm)越小, s1,s2,sm就越有序(越纯),分类效果就越好。由属性A划分为子集的熵:A为属性,具有V个不同的取值, S被A 划分为V 个子

3、集s1,s2,sv,sij是子集sj中类Ci的样本数。E(A)= (s1j+ +smj)/s * I(s1j,smj)信息增益:Gain(A)= I(s1,s2,sm) E(A)分裂属性选择规则:选择具有最大信息增益的属分裂属性选择规则:选择具有最大信息增益的属性为分裂属性性为分裂属性基尼指数集合T包含N个类别的记录,那么其Gini指标就是pj 类别j出现的频率如果集合T分成m部分 N1 , N2 , Nm 。那么这个分割的Gini就是分裂属性选择规则:选择具有最小分裂属性选择规则:选择具有最小Ginisplit的属性的属性为分裂属性为分裂属性 (对于每个属性都要遍历所有可能的分割方法).过拟

4、合过拟合的原因:训练样本带噪声或不充分等ErrorOverfittingUnderfittingComplexityErrorLSErrorunseen树的剪枝剪枝原因和目的:解决决策树对训练样本的过拟合问题解决方法:剪枝(预剪枝,后剪枝)和树组合后剪枝原则最小描述长度原则(MDL)思想:最简单的是最好的做法:对Decision-Tree 进行二进位编码,编码所需二进位最少的树即为“最佳剪枝树”期望错误率最小原则思想:选择期望错误率最小的子树进行剪枝对树中的内部节点计算其剪枝和不剪枝可能出现的期望错误率,比较后加以取舍决策树的用法大数据集 (理想情况):将数据集划分成3部分: GS, VS,

5、TS根据GS生成一个树根据VS进行后剪枝在TS测试该树的准确率小数据集 (通常)根据整个数据集生成一个树用10折交叉验证进行后剪枝用10折交叉验证测试树的准确率分类器组合AdaBoosting(Adaptive Boosting)对每个样本赋予一个权重,代表该样本被当前分类器选入训练集的概率,并根据预测函数的输出与期望输出的差异调整权重:如某个样本点已被正确分类,则它的权重减小,否则,它的权重增大;通过这种方式,使得学习算法能集中学习较难判别的样本。经过T轮训练,得到T个分类函数 f1,f2,fT及对应的权重1, 2, T,最终的分类规则为加权投票法Bagging(Breiman,1996)在

6、训练的每一轮中,均从原始样本集S中有放回地随机抽取训练样本集T(T的样本个数同S),这样一个初始样本在某轮训练中可能出现多次或根本不出现( S中每个样本未被抽取的概率为(1-1/|S|)|S|0.368,当|S|很大时)。最终的分类规则为简单多数投票法或简单平均法AdaBoosting和Bagging的比较Adaboosting的训练集选取与前面各轮的学习结果相关;而Bagging训练集的选取是随机的,各轮训练集之间相互独立。Adaboosting的每个分量分类器有权重,而Bagging的没有权重。Adaboosting的每个分量分类器只能循序生成,而Bagging可以并行生成。随机森林随机森

7、林定义随机森林算法随机森林的泛化误差OOB(Out-Of-Bag)估计:泛化误差的一个估计随机森林的特点随机森林的定义随机森林是一个树型分类器h(x,k),k=1,的集合。其中元分类器h(x,k)是用CART算法构建的没有剪枝的分类回归树;x是输入向量;k是独立同分布的随机向量,决定了单颗树的生长过程;森林的输出采用简单多数投票法(针对分类)或单颗树输出结果的简单平均(针对回归)得到。随机森林算法随机选取训练样本集:使用Bagging方法形成每颗树的训练集随机选取分裂属性集:假设共有M个属性,指定一个属性数FM,在每个内部结点,从M个属性中随机抽取F个属性作分裂属性集,以这F个属性上最好的分裂

8、方式对结点进行分裂(在整个森林的生长过程中, F的值一般维持不变)每颗树任其生长,不进行剪枝随机森林的泛化误差随机森林的泛化误差影响随机森林分类性能的主要因素森林中单颗树的分类强度(Strength):每颗树的分类强度越大,则随机森林的分类性能越好。森林中树之间的相关度(Correlation):树之间的相关度越大,则随机森林的分类性能越差。OOB估计计算1(以树为单位,错误):对每颗树,利用未被该树选中的训练样本点,统计该树的误分率;将所有树的误分率取平均得到随机森林的OOB误分率计算2(以样本为单位,正确):对每个样本,计算它作为OOB样本的树对它的分类情况(约1/3的树);然后以简单多数

9、投票作为该样本的分类结果;最后用误分个数占样本总数的比率作为随机森林的OOB误分率OOB误分率是随机森林的泛化误差的一个无偏估计OOB估计是高效的,其结果近似于需要大量计算的k折交叉验证。随机森林的特点两个随机性的引入,使得随机森林不容易陷入过拟合两个随机性的引入,使得随机森林具有很好的抗噪声能力对数据集的适应能力强:既能处理离散型数据,也能处理连续型数据,数据集无需规范化。可生成一个Proximities=(pij)矩阵,用于度量样本之间的相似性: pij=aij/N, aij表示样本i和j出现在随机森林中同一个叶子结点的次数,N随机森林中树的颗数。可以得到变量重要性排序(两种:基于OOB误

10、分率的增加量和基于分裂时的GINI下降量)主要参考文献1.J.R. Quinlan. Induction of Decision TreesJ.Machine learning 1986,1:81-106.2.S.L. Salzberg.Book Review:C4.5 Programs for Machine Learning by J.Ross QuinlanJ. Machine Learning,1994,3:235-240.3.L.Breiman, J.Friedman,al.et. Classification and Regression TreesM. New York: Chapman & Hall,1984.4.L.Breiman. Random ForestsJ.Machine Learning,2001,45(1):5-32.5.http:/

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号