数据分析课程设计论文.doc

上传人:飞****9 文档编号:137597042 上传时间:2020-07-09 格式:DOC 页数:15 大小:386.50KB
返回 下载 相关 举报
数据分析课程设计论文.doc_第1页
第1页 / 共15页
数据分析课程设计论文.doc_第2页
第2页 / 共15页
数据分析课程设计论文.doc_第3页
第3页 / 共15页
数据分析课程设计论文.doc_第4页
第4页 / 共15页
数据分析课程设计论文.doc_第5页
第5页 / 共15页
点击查看更多>>
资源描述

《数据分析课程设计论文.doc》由会员分享,可在线阅读,更多相关《数据分析课程设计论文.doc(15页珍藏版)》请在金锄头文库上搜索。

1、基于K-均值的Iris数据聚类分析姓名 谢 稳 学号 1411010122 班级 信科 14-1 成绩 _基于K-均值的Iris数据聚类分析姓名: 谢 稳信息与计算科学14-1班摘要 数据挖掘在当今大数据新起的时代是一项必须掌握的技能, 聚类分析是数据挖掘技术中一项重要的研究课题,在很多领域都有具有广泛的应用,如模式识别、数据分析等。聚类分析的目的是将数据对象分成若干个类或簇,使得在同一个簇中的对象之间具有较高的相似度,而不同簇中的对象之间相似度较低5。通过聚类分析,人们能够识别出数据分布密集和稀疏的区域,发现全局的分布模式以及数据属性之间一些意想不到的相互关系。本文对R.A.Fisher 在

2、1936 年发表的Iris 数据进行数据挖掘,使用聚类分析中的K-Means对该问题进行进一步分析研究。实验证明两种方法都是适合的解决此类问题的。关键词 Iris数据;聚类分析;K-均值聚类.0 前言 本文对聚类分析的原理进行阐述,并聚类分析中的谱系聚类法和K-means对R.A.Fisher的Iris 数据进行了数据分析,得到了几乎相同的结论,数据量太少,回带误差大约是20%。1 数据分析预处理1.1 数据来源分析的数据来自R.A.Fisher 在1936 年发表的Iris 数据(见附录B表B.1),据表可知前50个数据为牵牛一类,再50个数据为杂色一类,后50个数据为锦葵一类。将数据样本X

3、变量放入matlab变量名X,保存为matlab的huaban.mat文件。1.2 数据分析 采用谱系聚类分析方法和K-means聚类法解决例如Iris类的分类等问题。2 聚类分析2.1聚类的概述 聚类分析是研究对样品或指标进行分类的一种多元统计方法,是依据研究对象的个体的特征进行分类的方法;聚类分析把分类对象按一定规则分成若干类,这些类非事先指定的,而是根据数据特征确定的。在同一类中这些对象在某种意义上趋向于彼此相似,而在不同类中趋向于不相似;职能是建立一种能按照样品或变量的相似程度进行分类的方法。聚类准则为“亲者相聚,疏者相分”。2.2 分类2.2.1 R型聚类分析 R型聚类分析是对变量(

4、指标)的分类,其主要作用:不但可以了解个别变量之间的亲疏程度,而且可以了解各个变量组合之间的亲疏程度。2.2.2 Q型聚类分析 Q型聚类分析是对样品的分类,其主要作用:可以综合利用多个变量的信息对样本进行分析;分类结果直观,聚类谱系图清楚地表现数值分类结果;所得结果比传统分类方法更细致、全面、合理。其常用的统计量是距离。常用的聚类方法为谱系聚类法等。2.3谱系聚类法2.3.1概念谱系聚类法是目前应用较为广泛的一种聚类法。谱系聚类是根据生物分类学的思想对研究对象进行分类的方法。在生物分类学中,分类的单位是:门、纲、目、科、属、种。其中种是分类的基本单位,分类单位越小,它所包含的生物就越少,生物之

5、间的共同特征就越多。利用这种思想,谱系聚类首先将各样品自成一类,然后把最相似(距离最近或相似系数最大)的样品聚为小类,再将已聚合的小类按各类之间的相似性(用类间距离度量)进行再聚合,随着相似性的减弱,最后将一切子类都聚为一大类,从而得到一个按相似性大小聚结起来的一个谱系图。2.3.2 选择距离(参考文献1 p209页)在使用系统聚类法进行聚类的过程中, 尤其是Q型聚类是建立在样品之间距离矩阵的基础上的,通常需要对原始数据进行参考点的建立和去量纲化的处理,然后求出样 品距离矩阵D,我们采用比较广泛的闵可夫斯基(Minkowski)距离:当p=2时 即为欧几里得CEuclidean)距离。 然后进

6、行类的搜索、合并于距离矩阵的 更新涉及类间距离的计算,需要事先计算类 与类之间的距离。依据类问距离不同的计算 方法,我们可以把系统聚类法分为最短距离 法、最长距离法、重心法、离差平方和法(ward)等。 设Gp ,Gq 为前一轮操作中形成的某两个聚类,在本轮操作中归聚为新类Gr =GpGq则新类Gr与前一轮操作中形成吨,Gq 之外的任意一类 G,的距离递推公式如下:最短距离法 其中l p,q.最长距离法 其中l p,q.中间距离法 -. 中心距离法其中,和分别为和包含的聚类对象个数,=+. Ward法注意,Ward法要求初始距离矩阵采用欧式距离公式计算各个对象的距离。2.4 得到闵可夫斯基(M

7、inkowski)距离谱系聚类法函数(见附录A.1) (1)pdist创建聚类对象的Minkowski距离矩阵。(2)squarform拉直矩阵D。(3)linkage用D或其拉直矩阵创建信息矩阵G,默认的类间距离为最短距离法。(4)dendrogram创建G的谱系聚类图。(5)cluster创建G的指定个数类。2.5 画谱系聚类图(见图2.1)图2.1 Iris花瓣数据谱系聚类图2.6 得出分类 由图2.1得出Iris花瓣数据截断处可选择d=1,d=0.8,d=0.666对应的分类个数为2,3,5类。2.7 cluster创建G的指定个数类。(matlab程序见A.3)2.7.1 分3类图(

8、见图2.2)图2.2谱系聚类分析分为三类图2.8 结论 由图2.2将数据谱系聚类分析分为三类图可知,将数据分为3类不太恰当,应该两类或者5类更合适,不过也有可能是我们选择的距离有问题。下面K-means我们将更改距离。3 k-均值聚类3.1 K-Means算法思想1967 年Macqueen 提出了K-means 算法4, 基本思想是把数据集中的数据点随机生成k 组, 把每组的均值作为中心点。重新计算每个数据点与各组的中心点的相似性, 根据数据点相似性的度量准则, 把每个数据点重新分组, 计算每组新的均值作为中心点。不断重复上述过程, 直到中心点的均值收敛,停止迭代过程。K-means 算法是

9、一种比较快速的聚类方法, 时间复杂度为O ( nkt ), 其中n 是数据点的数目, k 是分组数目, t 是迭代次数。K-means 算法也存在不足, 最大问题要指定分组数目并且在运行过程中容易导致局部最优。3.1.1 K-均值算法K-均值算法是一种已知聚类个数的“无监督学习”算法。首先指定表示聚类个数的K 值,然后对数据集聚类,算法结束时用K 个聚类中心表示聚类结果。对于设定的目标准则函数,通过向目标准则函数值减小的方向进行迭代更新,目标准则函数值达到极小值时算法结束,得到较优的聚类结果。设数据集为 ,K个距离中心为V1,V2,.,Vk。令 表示K个聚类的类别,则: (1) 定义目标准则函

10、数为: (2)其中|Ci |表示Ci类包含样本的个数,使用欧式距离 (3)度量样本间的相似性。欧式距离适用于类内数据对象符合超球形分布的情况,目标准则函数SSE表示为每个数据对象到相应聚类中心距离的平方和,即聚类均方误差的最小值。3.1.2 K-均值算法的流程如下:(1)随机选取K 个初始聚类中心V1,V2,.,Vk ;(2)按照最小距离原则,对数据集聚类,确定每个样本的类属关系;(3)使用公式(1)更新K 个簇的中心;(4)重复执行(2)到(4),直到目标准则函数收敛或聚类中心稳定。显然,初始聚类中心对K-均值算法产生很大的影响,簇集中易存在平均误差较大的簇,聚类结果仅能收敛到局部最优。即使

11、选取不同的初始聚类中心执行多次K-均值算法,也只是在庞大的初值空间里进行简单的搜索,聚类结果很难达到全局最优。当数据集中存在较多噪音或孤立点时,已有的初始聚类中心优化方法很难发现合适的初始聚类中心。3.2 复合相关系数的计算(计算过程见附录A.4) 分别记最短、最长、类平均、重心、离差平方和距离为G1、G2、G3、G4、G5,相对应的复合相关系数分别记为R1、R2、R3、R4、R5,以欧式距离为样本间距离计算得到表3-1表3-1复合相关系数R1R2R3R4R50.86390.72760.87680.87700.8728由表2可知以重心距离进行聚类分析效果应该最为理想3.3 聚类结果(见图3.1

12、) 以重心距离为类间距离进行谱系聚类分析得到(matlab程序参考附录A.1-4)图3.1谱系聚类图3.4 谱系聚类结果(见图3.2)图3.2谱系聚类结果3.4 K-Means聚类结果(见图3.3)图3.3K-Means聚类结果3.5分析结果 由图3.2结果可得第1类有36个样本,第2类有64个样本,第3类有50个样本,由图3.3可知第1类有62个样本,第2类有49个样本,第3类有39个样本两种方法基本得到的结论基本一致,不过都不太理想。这可能是数据量太小了的原因。大数据时代,需要大量的数据。参考文献1 包研科.数据分析教程.北京:清华大学出版社,20112 曾繁慧.数值分析.徐州:中国矿业大

13、学出版社,20093 袁方,周志勇,宋鑫初始聚类中心优化的K-means算发 J .计算机工程,2007,33(3):65-664 MacQueen, James. Some methods for classification and analysis of multivariate observations. Proceedings of the fifth Berkeley symposium on mathematical statistics andprobability. Vol. 1. No. 281-297. 19675 余立强LAMP 架构搭建与网站运行实例J网络与信息,20

14、11(8):50526 吴夙慧, 成颖, 郑彦宁, 潘云涛. K-means 算法研究综述 J . 现代图书情报技术, 2011, (5): 28-35.附录A.1 谱系聚类法函数function f = test4()load huaban.matD = pdist(X,minkowski);G = linkage(D);dendrogram(G);T=cluster(G,3)A.2 自编k-means聚类分析xwKmeans.m函数function cid,nr,centers = xwKmeans(x,k,nc)% CID,NR,CENTERS = CSKMEANS(X,K,NC) Performs K-means% X输入聚合数据% K通过观察得到的经验分组数据% 每行一个观测,NC为聚类指数,来源于初始的聚类中心值,默认情况下为随机的观测% 输出: IDX为最终分类% nr为每个每个聚合的中心值% CENTERS is a matrix, where each row% corresponds to a cluster center.n,d = size(x);if nargin 3 ind = ceil(n*rand(1,k);nc = x(ind,:) + randn(k,d);endcid = zeros(1,n);

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 学术论文 > 管理论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号