医学论文-分类树中c&rt算法与判别分析的比较及其医学应用

上传人:第*** 文档编号:35440203 上传时间:2018-03-15 格式:DOC 页数:5 大小:14.05KB
返回 下载 相关 举报
医学论文-分类树中c&rt算法与判别分析的比较及其医学应用_第1页
第1页 / 共5页
医学论文-分类树中c&rt算法与判别分析的比较及其医学应用_第2页
第2页 / 共5页
医学论文-分类树中c&rt算法与判别分析的比较及其医学应用_第3页
第3页 / 共5页
医学论文-分类树中c&rt算法与判别分析的比较及其医学应用_第4页
第4页 / 共5页
医学论文-分类树中c&rt算法与判别分析的比较及其医学应用_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《医学论文-分类树中c&rt算法与判别分析的比较及其医学应用》由会员分享,可在线阅读,更多相关《医学论文-分类树中c&rt算法与判别分析的比较及其医学应用(5页珍藏版)》请在金锄头文库上搜索。

1、医学论文医学论文- - 分类树中分类树中C&RTC&RT算法与判别分析的比较及其医学应用算法与判别分析的比较及其医学应用【 【摘要摘要】 】 目的:探讨分类树中C&RT算法和判别分析在数据分析应用中的区别。方法:首先 介绍模型的基本原理,据此对方法间的优缺点进行比较,然后采用实例进行分析 介绍,并报告模型的树型图,10折交叉验证的预测准确率。结果:C&RT 算法是非参数、非线性的,对变量不同属性的适应是非常灵活地;C&RT在构造树 模型时是单变量拆分和递归的,故能够明显细分危险因素。结论:C&RT 算法和判别分析模型各有优势,根据数据特点及专业背景合理分析与解释,将能 保证分析的正确性和完善性

2、。 【 【关关键词键词】 】 C&RT 算法 线性判别分析 交叉验证 错分率在分类方法中传统的判别分析是最常用的,其核心思想是,先根据某些类别归属 已知的对象建立判别函数,再将要进行分类的相应指标值带入此判别函数,根据 所得函数值判断该对象所应归入的类别。对于常用的线性判别分析,如Bayes判 别、典则判别、逐步判别分析要求原始变量在各组内具有近似正态分布,同时具 有相同的协方差矩阵等条件,而实际中很多数据不能满足其算法条件,使其统计 结果误差偏大。再者对于二次判别函数和非参数判别分析,由于其计算复杂,较 少有教科书涉及,使其在应用中受到限制。而分类树C&RT算法作为数据挖掘中 重要的分析方法

3、,由于其算法是非参数,非线性的,加之其判别准则以图形化结 果呈现,结果易于表述与解释,该法可以作为传统判别分析的补充,因而受到统 计分析人员的青睐。本研究将两者作以初步比较与探讨,以便为数据分析提供理 论依据。1 原理与方法原理与方法C&RT算法简介13:分类与回归树CART(Classification and Regression Trees)由最早由Breiman等人于1984提出,Ripley在1996年进行了修改。变量分为 预测变量(predict variable)和应变量(dependent variable),该模型使用二叉树将预测空间递归地划分为若干子集,而树中的叶节 点对应

4、着划分的不同区域,划分是由与每个内部节点相关的分支规则(Splitting Rules)来确定的,通过从树根到叶节点移动,一个预测样本被赋予一个惟一的叶 节点,应变量在该节点上的条件分布也即被确定。C&RT算法包含3部分内容:分 枝变量及拆分点的选择、树的修剪和模型树的评估。1.1 分枝变量及拆分点的选择 分类树理想的结果是使得树中每一个叶节点要么是纯节点(节点内部样本的应变 量属于同一个类),要么很小(节点内部所含样本个数小于事先给定的n值)。在从众多的预测变量中选择这个最佳分组变量时,C&RT算法采用基尼系数来进行评 判。基尼系数越小,表明该节点越纯,则该预测变量就是当前属性的最优分割点

5、。对基尼系数的介绍可参考有关文献。在对样本集进行分割时,分割规则采用二 叉表示形式,算法从根结点开始分割,递归地对每个结点重复进行。1.2 树的修剪(Pruning)由于数据中有噪声和孤立点,许多分枝反映的是训练数据中的异常。C&RT采取 的是后剪枝(postpruning)方法,剪去不可靠的分枝,以提高树正确的分类能力。C &RT采用CART系统的成本-复杂度最小(Minimal cost-complexity pruning)原则进行删减。1.3 评估树模型 C&RT法采用测试样本评估(Test Sample Estimates)、交叉验证评估(Cross- validation Esti

6、mates)或V-折交叉验证(V-fold cross- validation),使得最终的模型树分类误判率低且树模型简单。对于最终模型树大 小的选择要结合资料的专业背景及统计结果来选择。2 C&RT与判与判别别分析比分析比较较 46 2.1 C&RT方法是非参数非线性的 线性判别分析要求原始变量在各组内具有近似正态分布,同时具有相同的协方 差矩阵等条件,而现实中很多数据不能满足其算法条件,使其统计结果误差偏大 。再者对于二次判别函数和非参数判别分析计算复杂, 即使SAS、SPSS等大型统计软件对判别分析呈二次判别方程时,也没有直接输出 方程的结果。故由于其操作和结果的解释较为复杂,使其推广应

7、用受到一定的限 制,所以分类树方法可以进行弥补。2.2 应变量属性的灵活性 C&RT分类树法中应变量即可以是连续性数值变量(continuous predictors),也可为分类变量(categorical)。如果应变量为连续性变量,C&RT树为 回归树,如果应变量为分类变量时,C&RT为分类树。而判别分析要求应变量为 分类属性。2.3 预测变量属性的灵活性 分类树中的预测变量可以是连续性数值变量,也可为分类变量(categorical)。线 性判别分析要求预测变量为计量(interval scale)。当在应用判别分析时预测变量为分类属性时,常将其设置为哑变量的形式参与计算,其实质在降低其

8、正态性的要求。而分类树方法无此要求,故在预测 变量的要求上是宽松的。分类树以树形图或一组if- then语句形式描述,判别分析用一组线性方程组表述,两者相比,C&RT结果易于 表达和解释。2.4 C&RT算法在构造树模型时是单变量拆分、递归的判别分析的目的是建立判别方程,以便用来判断某一条新观测所属的类别。不同 方法有其核心思想,对于典则判别分析目的是寻找一组数值型变量的线性组合, 使其能够很好地反映各类别之间的差别;而逐步判别目的在于筛选出某些能最好 地反映类别间差别的变量。所以当预测变量与应变量之间有较强的相关关系或 者预测变量在应变量各属性上有统计学差异时,所构造的判别方程模型较好,然

9、而对应变量与预测变量不呈上述关系时,判别方程显得无能为力;而C&RT算法 是单变量、递归式拆分,即先在一个变量(A)上将全部观察单位进行回归,而后 在去除第一步分层的观察单位后在第二个变量(B)上再进行回归,从而构成模型 树,这正是C&RT算法的优势。在回归的运用上,分类树的危险因素是呈树枝状 分布的,而判别分析是同时考虑所有观察单位和所有变量,同时进行回归,两者 相比,分类树的分层结果使得观察单位的特征更加明显。总之,分类树与判别分 析的本质区别在于它是递归的、分层的。3 分析分析实实例例通过下面的实例数据来说明C&RT方法的应用,数据来源于我校附属医院,采用S PSS公司AnswerTre

10、e3.0进行分析 7。该实例的目的为研究腮腺良恶性肿瘤在临床体症及CT影像上的差别,所有 病例经过病理学确诊,其中腮腺良、恶性肿瘤分别为65、33例。收集临床上认为 重要的特征指标,依次有性别、年龄、位置(浅叶、深叶、同时受累)、肿瘤的最大 径(cm)、平扫密度、颈部淋巴结肿大与否、边界状态(清、不清)、CT增强幅度。将 良、恶性肿瘤属性作为应变量,其余属性作为预测变量,其中年龄、肿瘤的最大 径、增强幅度为连续性计量数据,其余为分类计数数据。由于本例样本量较小, 采用10折交叉验证对模型进行评估其误差率。此处简要报告C&RT方法的主要分 析结果,表1为C&RT模型的预测分类与实际分类结果,图1

11、为树形图。该决策树 图为采用C&RT方法进行的分类结果,由模型树图可得出以下结论:恶性肿瘤大 多伴有淋巴结肿大、肿瘤直径大、边界不清、CT增强幅度大再检测的特征。表1 C&RT模型的预测分类与实际分类结果(略)经10折交叉验证,估计误差(Risk Estimate)及其标准误(SE of Risk Estimate)分别为0.918、0.029,模型的正确率近91%。将该资料采用Bayes线性判别分析,得判别函数为:Z1=-37.009+27.635X1+8.501X2+1.842X3+0.226X4Z2=-38.286+20.648X1+12.823X2+2.632X3+0.339X4公式中

12、Z1、Z2分别代表良、恶性;X1为是否伴有淋巴结肿大, X2边界是否清晰, X3肿瘤最大径, X4为CT的增强幅度。采用交叉验证模型的准确率为89.2%。由于本资料数据量小 ,变量间的关系简单,两种模型的分析结果基本一致。相比于判别分析,C&RT方 法的树型分类结果直观且宜于解释,由于分类树算法仅就节点处自身的数据进 行分析,故在进行“危险因素“分析时,分类树结果更能强调危险因素,故从根节 点到叶节点可明显区分恶性肿瘤与良性肿瘤的特征,即恶性肿瘤大多伴有淋巴 结肿大、肿瘤直径大、边界不清,CT增强幅度大一些时可清晰确诊。该模型对实 际的临床诊断有一定的指导意义。图1 腮腺良恶性肿瘤临床体症的C

13、&RT模型树(略)4 讨论讨论 目前数据挖掘中有关分类树的算法非常多,SPSS13.0及AnswerTree软件主要提供 有C&RT、CHAID 和QUEST 3种算法8,9。CHAID 算法以Pearson 卡方或似然比卡方检验为基础, 使用P 值对众多自变量进行比较并筛选出最佳分类变量和最佳分类结果,该算法更适 于处理分类属性的变量,对于连续性变量需将其转化为分类变量再进行分析,因 此会损失部分信息。QUEST 算法在思路上类似于CHIAD 算法,对连续或有序变量采用方差分析进行检验,而后又采用方差齐性检验进一 步发掘变异程度上的差异, 弥补了CHAID方法的不足。C &RT 算法采用杂质

14、缩减最大化为其基本思路,当应变量为分类属性时模型树为分类树 ,当应变量为连续性属性时,模型树为回归树。3种算法的应变量都可以为nomina l、ordinal、continuous 3种类型,不同之处是QUEST、C &RT树模型为二叉树。对于常用线性判别分析要求原始变量在各组内具有近似正态分布,同时具有相 同的协方差矩阵等条件,当自变量与应变量间呈线性关系时,采用线性判别分析 会更为准确与合理。而分类树算法是非参数、非线性的,如果自变量与应变量间 呈非线性关系,或自变量间有交互作用,采用二次判别函数和非参数判别分析, 计算复杂,结果难以解释,而分类树方法可以弥补判别分析这一缺陷。判别分析 构

15、造模型时是针对所有数据的,而分类树算法仅就节点处自身的数据进行分析, 故在进行危险因素分析时,分类树结果更能强调危险因素。判别分析与分类树分 析各自有其优势,实际分析时结合数据自身特点与专业背景,选择恰当的方法, 合理地解释结果。【 【参考文献参考文献】 】1 毛国君,段立娟,王实,等.数据挖掘原理与算法. 清华大学出版社,2005,7556.2 章兢, 张小刚. 数据挖掘算法及其工程应用.机械工业出版社,2006,4060.3 Breiman L,Friedman JH,etal.Classification and regression tresss. Bel-mont, Californ

16、ia:Wadsworth, 1984.4 http:/ A classification of delivery patient groups using CART (Classification and Regression Trees) for an improvement of critical path. Stud Health Technol Inform, 2006,122:913.6 Application of data mining techniques to healthcare data. Infect Control Hosp Epidemiol, 2004, 25(8):690695.7 SPSS Inc. AnswerTree 3. 0 Users Guide. Chicago, Illinois, SPSS Inc, 2001,7.8 张超,陈

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 其它办公文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号