层次聚类分析超精彩

上传人:好** 文档编号:102152185 上传时间:2019-10-01 格式:PPT 页数:51 大小:490.50KB
返回 下载 相关 举报
层次聚类分析超精彩_第1页
第1页 / 共51页
层次聚类分析超精彩_第2页
第2页 / 共51页
层次聚类分析超精彩_第3页
第3页 / 共51页
层次聚类分析超精彩_第4页
第4页 / 共51页
层次聚类分析超精彩_第5页
第5页 / 共51页
点击查看更多>>
资源描述

《层次聚类分析超精彩》由会员分享,可在线阅读,更多相关《层次聚类分析超精彩(51页珍藏版)》请在金锄头文库上搜索。

1、层次聚类方法,戴 奇,Page 2,主要内容,凝聚和分裂层次聚类,01,BIRCH:利用层次方法的平衡迭代归约和聚类,02,Chameleon:利用动态建模的层次聚类算法,05,ROCK:分类属性的层次聚类算法,03,CURE:基于质心和基于代表对象方法之间的中间策略,04,Page 3,概要,层次聚类方法将数据对象组成一棵聚类树。 根据层次分解是以自底向上(合并)还是自顶向下(分裂)方式,层次聚类方法可以进一步分为凝聚的和分裂的。 一种纯粹的层次聚类方法的质量受限于:一旦合并或分裂执行,就不能修正。也就是说,如果某个合并或分裂决策在后来证明是不好的选择,该方法无法退回并更正。,Page 4,

2、主要内容,凝聚和分裂层次聚类,01,BIRCH:利用层次方法的平衡迭代归约和聚类,02,Chameleon:利用动态建模的层次聚类算法,05,ROCK:分类属性的层次聚类算法,03,CURE:基于质心和基于代表对象方法之间的中间策略,04,Page 5,层次聚类方法,一般来说,有两种类型的层次聚类方法: 凝聚层次聚类:采用自底向上策略,首先将每个对象作为单独的一个原子簇,然后合并这些原子簇形成越来越大的簇,直到所有的对象都在一个簇中(层次的最上层),或者达到一个终止条件。绝大多数层次聚类方法属于这一类。 分裂层次聚类:采用自顶向下策略,首先将所有对象置于一个簇中,然后逐渐细分为越来越小的簇,直

3、到每个对象自成一个簇,或者达到某个终止条件,例如达到了某个希望的簇的数目,或者两个最近的簇之间的距离超过了某个阈值。,Page 6,例子,下图描述了一种凝聚层次聚类算法AGNES和一种分裂层次聚类算法DIANA对一个包含五个对象的数据集合a,b,c,d,e的处理过程。,图1 对数据对象a,b,c,d,e的凝聚和分裂层次聚类,Page 7,初始,AGNES将每个对象自为一簇,然后这些簇根据某种准则逐步合并,直到所有的对象最终合并形成一个簇。 例如,如果簇C1中的一个对象和簇C2中的一个对象之间的距离是所有属于不同簇的对象间欧氏距离中最小的,则C1和C2合并。 在DIANA中,所有的对象用于形成一

4、个初始簇。根据某种原则(如,簇中最近的相邻对象的最大欧氏距离),将该簇分裂。簇的分裂过程反复进行,直到最终每个新簇只包含一个对象。 在凝聚或者分裂层次聚类方法中,用户可以定义希望得到的簇数目作为一个终止条件。,Page 8,树状图,通常,使用一种称作树状图的树形结构表示层次聚类的过程。它展示出对象是如何一步步分组的。图2显示图1的五个对象的树状图。,图2 数据对象a,b,c,d,e层次聚类的树状图表示,Page 9,簇间距离,四个广泛采用的簇间距离度量方法如下,其中|p-p|是两个对象或点p和p之间的距离,mi是簇Ci的均值,而ni是簇Ci中对象的数目。 最小距离: 最大距离: 均值距离: 平

5、均距离:,Page 10,最小距离,最大距离,均值距离,平均距离,Page 11,当算法使用最小距离 衡量簇间距离时,有时称它为最近邻聚类算法。此外,如果当最近的簇之间的距离超过某个任意的阈值时聚类过程就会终止,则称其为单连接算法。 当一个算法使用最大距离 度量簇间距离时,有时称为最远邻聚类算法。如果当最近簇之间的最大距离超过某个任意阈值时聚类过程便终止,则称其为全连接算法。,Page 12,单连接算法例子,先将五个样本都分别看成是一个簇,最靠近的两个簇是3和4,因为他们具有最小的簇间距离D(3,4)=5.0。 第一步:合并簇3和4,得到新簇集合1,2,(34),5,Page 13,更新距离矩

6、阵: D(1,(34)=min(D(1,3),D(1,4)=min(20.6,22.4)=20.6 D(2,(34)=min(D(2,3),D(2,4)=min(14.1,11.2)=11.2 D(5,(34)=min(D(3,5),D(4,5)=min(25.0,25.5)=25.0 原有簇1,2,5间的距离不变,修改后的距离矩阵如图所示,在四个簇1,2,(34),5中,最靠近的两个簇是1和5,它们具有最小簇间距离D(1,5)7.07。,Page 14,Page 15,Page 16,最小和最大度量代表了簇间距离度量的两个极端。它们趋向对离群点或噪声数据过分敏感。 使用均值距离和平均距离是对

7、最小和最大距离之间的一种折中方法,而且可以克服离群点敏感性问题。 尽管均值距离计算简单,但是平均距离也有它的优势,因为它既能处理数值数据又能处理分类数据。,Page 17,层次聚类方法的困难之处,层次聚类方法尽管简单,但经常会遇到合并或分裂点选择的困难。这样的决定是非常关键的,因为一旦一组对象合并或者分裂,下一步的处理将对新生成的簇进行。 不具有很好的可伸缩性,因为合并或分裂的决定需要检查和估算大量的对象或簇。,Page 18,层次聚类的改进,一个有希望的方向是集成层次聚类和其他的聚类技术,形成多阶段聚类。在下面的内容中会介绍四种这类的方法: BIRCH:首先用树结构对对象进行层次划分,其中叶

8、节点或者是低层次的非叶节点可以看作是由分辨率决定的“微簇”,然后使用其他的聚类算法对这些微簇进行宏聚类。 ROCK基于簇间的互联性进行合并。 CURE选择基于质心和基于代表对象方法之间的中间策略。 Chameleon探查层次聚类的动态建模。,Page 19,主要内容,凝聚和分裂层次聚类,01,BIRCH:利用层次方法的平衡迭代归约和聚类,02,Chameleon:利用动态建模的层次聚类算法,05,ROCK:分类属性的层次聚类算法,03,CURE:基于质心和基于代表对象方法之间的中间策略,04,Page 20,BIRCH方法通过集成层次聚类和其他聚类算法来对大量数值数据进行聚类。其中层次聚类用于

9、初始的微聚类阶段,而其他方法如迭代划分(在后来的宏聚类阶段)。 它克服了凝聚聚类方法所面临的两个困难: 可伸缩性; 不能撤销前一步所做的工作。 BIRCH使用聚类特征来概括一个簇,使用聚类特征树(CF树)来表示聚类的层次结构。这些结构帮助聚类方法在大型数据库中取得好的速度和伸缩性,还使得BIRCH方法对新对象增量和动态聚类也非常有效。,Page 21,聚类特征(CF),考虑一个n个d维的数据对象或点的簇,簇的聚类特征是一个3维向量,汇总了对象簇的信息。定义如下 CF= 其中,n是簇中点的数目,LS是n个点的线性和(即 ), SS是数据点的平方和(即 )。 聚类特征本质上是给定簇的统计汇总:从统

10、计学的观点来看,它是簇的零阶矩、一阶矩和二阶矩。,Page 22,使用聚类特征,我们可以很容易地推导出簇的许多有用的统计量。例如,簇的形心x0,半径R和直径D分别是: 其中R是成员对象到形心的平均距离,D是簇中逐对对象的平均距离。R和D都反映了形心周围簇的紧凑程度。,Page 23,使用聚类特征概括簇可以避免存储个体对象或点的详细信息。我们只需要固定大小的空间来存放聚类特征。这是空间中BIRCH有效性的关键。 聚类特征是可加的。也就是说,对于两个不相交的簇C1和C2,其聚类特征分别为CF1=和CF2=,合并C1和C2后的簇的聚类特征是 CF1+CF2=,Page 24,例子,假定在簇C1中有三

11、个点(2,5),(3,2)和(4,3)。 C1的聚类特征是: CF1= 假定C1和第2个簇C2是不相交的,其中 CF2=。 C1和C2合并形成一个新的簇C3,其聚类特征便是CF1和 CF2之和,即: CF3=,Page 25,CF树,CF树是一棵高度平衡的树,它存储了层次聚类的聚类特征。图3给出了一个例子。根据定义,树中的非叶节点有后代或“子女”。非叶节点存储了其子女的CF的总和,因而汇总了关于其子女的聚类信息。 CF树有两个参数:分支因子B和阈值T。 分支因子定义了每个非叶节点子女的最大数目。 而阈值参数给出了存储在树的叶节点中的子簇的最大直径。 这两个参数影响结果数的大小。,Page 26

12、,图3 CF树结构,Page 27,BIRCH试图利用可用的资源生成最好的簇。给定有限的主存,一个重要的考虑是最小化I/O所需时间。BIRCH采用了一种多阶段聚类技术:数据集的单遍扫描产生一个基本的好聚类,一或多遍的额外扫描可以用来进一步(优化)改进聚类质量。它主要包括两个阶段: 阶段一:BIRCH扫描数据库,建立一棵存放于内存的初始CF树,它可以看作数据的多层压缩,试图保留数据的内在的聚类结构。 阶段二:BIRCH采用某个(选定的)聚类算法对CF树的叶节点进行聚类,把稀疏的簇当作离群点删除,而把稠密的簇合并为更大的簇。,Page 28,CF树的构造,在阶段一中,随着对象被插入,CF树被动态地

13、构造。这样,该方法支持增量聚类。 一个对象被插入到最近的叶条目(子簇)。如果在插入后,存储在叶节点中的子簇的直径大于阈值,则该叶节点和可能的其他节点被分裂。新对象插入后,关于该对象的信息向树根节点传递。 通过修改阈值,CF树的大小可以改变。如果存储CF树需要的内存大于主存的大小,可以定义较大的阈值,并重建CF树。,Page 29,在 CF 树重建过程中,通过利用老树的叶节点来重新构建一棵新树,因而树的重建过程不需要访问所有点,即构建CF 树只需访问数据一次就行。 可以在阶段二使用任意聚类算法,例如典型的划分方法。,Page 30,BIRCH的有效性,该算法的计算复杂度是O(n),其中n是聚类的

14、对象的数目。实验表明该算法关于对象数目是线性可伸缩的,并且具有较好的数据聚类质量。 然而,既然CF树的每个节点由于大小限制只能包含有限数目的条目,一个CF树节点并不总是对应于用户所考虑的一个自然簇。 此外,如果簇不是球形的,BIRCH不能很好地工作,因为它使用半径或直径的概念来控制簇的边界。,Page 31,主要内容,凝聚和分裂层次聚类,01,BIRCH:利用层次方法的平衡迭代归约和聚类,02,Chameleon:利用动态建模的层次聚类算法,05,ROCK:分类属性的层次聚类算法,03,CURE:基于质心和基于代表对象方法之间的中间策略,04,Page 32,对于聚类包含布尔或分类属性的数据,

15、传统聚类算法使用距离函数。然而,实验表明对分类数据聚类时,这些距离度量不能产生高质量的簇。 此外,大多数聚类算法在进行聚类时只估计点与点之间的相似度;也就是说,在每一步中那些最相似的点合并到一个簇中。这种“局部”方法很容易导致错误。,Page 33,ROCK是一种层次聚类算法,针对具有分类属性的数据使用了链接(指两个对象间共同的近邻数目)这一概念。 ROCK采用一种比较全局的观点,通过考虑成对点的邻域情况进行聚类。如果两个相似的点同时具有相似的邻域,那么这两个点可能属于同一个簇而合并。,Page 34,两个点pi和pj是近邻,如果 其中sim是相似度函数, sim可以选择为距离度量,甚至可以选

16、择为非度量,非度量被规范化,使其值落在0和1之间,值越大表明两个点越相似。 是用户指定的阈值。 pi和pj之间的链接数定义为这两点的共同近邻个数。如果两个点的链接数很大,则他们很可能属于相同的簇。 由于在确定点对之间的关系时考虑邻近的数据点,ROCK比起只关注点间相似度的标准聚类方法就显得更加鲁棒。,Page 35,包含分类属性数据的一个很好的例子就是购物篮数据。 这种数据由事务数据库组成,其中每个事务都是商品的集合 事务看作具有布尔属性的记录,每个属性对应于一个单独的商品,如面包或奶酪。 如果一个事务包含某个商品,那么该事务的记录中对应于此商品的属性值就为真;否则为假。 其他含有分类属性的数据集可以用类似的方式处理。 ROCK中近邻和链接的概念将在下面的例子中阐述,其中两个“点”即两

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 事务文书

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号