数据挖掘教程-3、数据预处理

上传人:豆浆 文档编号:48371432 上传时间:2018-07-14 格式:PPT 页数:34 大小:813KB
返回 下载 相关 举报
数据挖掘教程-3、数据预处理_第1页
第1页 / 共34页
数据挖掘教程-3、数据预处理_第2页
第2页 / 共34页
数据挖掘教程-3、数据预处理_第3页
第3页 / 共34页
数据挖掘教程-3、数据预处理_第4页
第4页 / 共34页
数据挖掘教程-3、数据预处理_第5页
第5页 / 共34页
点击查看更多>>
资源描述

《数据挖掘教程-3、数据预处理》由会员分享,可在线阅读,更多相关《数据挖掘教程-3、数据预处理(34页珍藏版)》请在金锄头文库上搜索。

1、7-8王 灿数据挖掘 0703004数据预处理为什么要预处理数据?n现实世界的数据是“肮脏的”数据多了,什 么问题都会出现q不完整的:有些感兴趣的属性缺少属性值,或 仅包含聚集数据q含噪声的:包含错误或者“孤立点”q不一致的:在编码或者命名上存在差异n没有高质量的数据,就没有高质量的挖掘结果q高质量的决策必须依赖高质量的数据q数据仓库需要对高质量的数据进行一致地集成数据质量的多维度量n一个广为认可的多维度量观点:q精确度q完整度q一致性q合乎时机q可信度q附加价值q可访问性n跟数据本身的含义相关的q内在的、上下文的、表象的数据预处理的主要任务n数据清理q填写空缺的值,平滑噪声数据,识别、删除孤

2、立点,解 决不一致性n数据集成q集成多个数据库、数据立方体或文件n数据变换q规范化和聚集n数据归约q得到数据集的压缩表示,它小得多,但可以得到相同或 相近的结果n数据离散化q数据归约的一部分,通过概念分层和数据的离散化来规 约数据,对数字型数据特别重要空缺值n数据并不总是完整的q例如:数据库表中,很多条记录的对应字段没 有相应值,比如销售表中的顾客收入n引起空缺值的原因q设备异常q与其他已有数据不一致而被删除q因为误解而没有被输入的数据q在输入时,有些数据应为得不到重视而没有被 输入q对数据的改变没有进行日志记载n空缺值要经过推断而补上如何处理空缺值n忽略元组:当类标号缺少时通常这么做(假定挖

3、掘任 务涉及分类或描述),当每个属性缺少值的百分比变 化很大时,它的效果非常差。n人工填写空缺值:工作量大,可行性低n使用一个全局变量填充空缺值:比如使用unknown或 -n使用属性的平均值填充空缺值n使用与给定元组属同一类的所有样本的平均值n使用最可能的值填充空缺值:使用像Bayesian公式 或判定树这样的基于推断的方法噪声数据n噪声:一个测量变量中的随机错误或偏差n引起噪声数据的原因q数据收集工具的问题q数据输入错误q数据传输错误q技术限制q命名规则的不一致如何处理噪声数据 n分箱(binning):q首先排序数据,并将他们分到等深的箱中q然后可以按箱的平均值平滑、按箱中值平滑、按箱的

4、边 界平滑等等n聚类:q监测并且去除孤立点n计算机和人工检查结合q计算机检测可疑数据,然后对它们进行人工判断n回归q通过让数据适应回归函数来平滑数据数据平滑的分箱方法nprice的排序后数据(单位:美元):4,8,15,21,21,24,25 ,28,34n划分为(等深的)箱:q箱1:4,8,15q箱2:21,21,24q箱3:25,28,34n用箱平均值平滑:q箱1:9,9,9q箱2:22,22,22q箱3:29,29,29n用箱边界平滑:q箱1:4,4,15q箱2:21,21,24q箱3:25,25,34聚类n通过聚类分析查找孤立点,消除噪声回归xyy = x + 1X1Y1Y1数据集成n

5、数据集成:q将多个数据源中的数据整合到一个一致的存储 中n模式集成:q整合不同数据源中的元数据q实体识别问题:匹配来自不同数据源的现实世 界的实体,比如:A.cust-id=B.customer_non检测并解决数据值的冲突q对现实世界中的同一实体,来自不同数据源的 属性值可能是不同的q可能的原因:不同的数据表示,不同的度量等 等处理数据集成中的冗余数据n集成多个数据库时,经常会出现冗余数据q同一属性在不同的数据库中会有不同的字段名q一个属性可以由另外一个表导出,如“年薪”n有些冗余可以被相关分析检测到n仔细将多个数据源中的数据集成起来,能够减 少或避免结果数据中的冗余与不一致性,从而 可以提

6、高挖掘的速度和质量。数据变换n平滑:去除数据中的噪声 (分箱、聚类、回归)n聚集:汇总,数据立方体的构建n数据概化:沿概念分层向上概化n规范化:将数据按比例缩放,使之落入一个小的特定 区间q最小最大规范化qz-score规范化q小数定标规范化n属性构造q通过现有属性构造新的属性,并添加到属性集中;以增 加对高维数据的结构的理解和精确度数据变换规范化n最小最大规范化nz-score规范化n小数定标规范化其中,j是使 Max(| |)1的最小整数数据归约策略n数据仓库中往往存有海量数据,在其上进行复杂的数 据分析与挖掘需要很长的时间n数据归约q数据归约可以用来得到数据集的归约表示,它小得多, 但可

7、以产生相同的(或几乎相同的)分析结果n数据归约策略q数据立方体聚集q维归约q数据压缩q数值归约q离散化和概念分层产生n用于数据归约的时间不应当超过或“抵消”在归约后的 数据上挖掘节省的时间。数据立方体聚集n最底层的方体对应于基本方体q基本方体对应于感兴趣的实体n在数据立方体中存在着不同级别的汇总q数据立方体可以看成方体的格q每个较高层次的抽象将进一步减少结果数据n数据立方体提供了对预计算的汇总数据的快速 访问q使用与给定任务相关的最小方体q在可能的情况下,对于汇总数据的查询应当使 用数据立方体维归约n通过删除不相干的属性或维减少数据量n属性子集选择q找出最小属性集,使得数据类的概率分布尽可能的

8、接近 使用所有属性的原分布q减少出现在发现模式上的属性的数目,使得模式更易于 理解n启发式的(探索性的)方法q逐步向前选择q逐步向后删除q向前选择和向后删除相结合q判定归纳树数据压缩n有损压缩 VS. 无损压缩n字符串压缩q有广泛的理论基础和精妙的算法q通常是无损压缩q在解压缩前对字符串的操作非常有限n音频/视频压缩q通常是有损压缩,压缩精度可以递进选择q有时可以在不解压整体数据的情况下,重构某个片断n两种有损数据压缩的方法:小波变换和主要成分分析数值归约n通过选择替代的、较小的数据表示形式来减少数据量n有参方法:使用一个参数模型估计数据,最后只要存 储参数即可。q线性回归方法:Y=+Xq多元

9、回归:线性回归的扩充q对数线性模型:近似离散的多维数据概率分布n无参方法:q直方图q聚类q选样直方图n一种流行的数据归约技术n将某属性的数据划分为不相交的子集,或桶,桶中放 置该值的出现频率n桶和属性值的划分规则q等宽q等深qV-最优qMaxDiff聚类n将数据集划分为聚类,然后通过聚类来表示数 据集n如果数据可以组成各种不同的聚类,则该技术 非常有效,反之如果数据界线模糊,则方法无 效n数据可以分层聚类,并被存储在多层索引树中n聚类的定义和算法都有很多选择选样n允许用数据的较小随机样本(子集)表示大的数据集n对数据集D的样本选择:q简单随机选择n个样本,不回放:由D的N个元组中抽取 n个样本

10、q简单随机选择n个样本,回放:过程同上,只是元组被 抽取后,将被回放,可能再次被抽取q聚类选样:D中元组被分入M个互不相交的聚类中,可 在其中的m个聚类上进行简单随机选择(mM)q分层选样:D被划分为互不相交的“层”,则可通过对每一 层的简单随机选样得到D的分层选样选样SRSSRSWOR (简单随机选 样,不回放)SRSWR (简单随机选 样,回放)原始数据选样聚类/分层选样原始数据 聚类/分层选样离散化n三种类型的属性值:q名称型e.g. 无序集合中的值q序数e.g. 有序集合中的值q连续值e.g. 实数n离散化q将连续属性的范围划分为区间q有效的规约数据n基于判定树的分类挖掘q离散化的数值

11、用于进一步分析离散化和概念分层n离散化q通过将属性域划分为区间,减少给定连续属性 值的个数。区间的标号可以代替实际的数据值。n概念分层q通过使用高层的概念(比如:青年、中年、老 年)来替代底层的属性值(比如:实际的年龄数据 值)来规约数据数据数值的离散化和概念分层生成n分箱(binning)q分箱技术递归的用于结果划分,可以产生概念分层。n直方图分析(histogram)q直方图分析方法递归的应用于每一部分,可以自动产生 多级概念分层。n聚类分析q将数据划分成簇,每个簇形成同一个概念层上的一个节 点,每个簇可再分成多个子簇,形成子节点。n基于熵的离散化n通过自然划分分段通过自然划分分段n将数值

12、区域划分为相对一致的、易于阅读的、 看上去更直观或自然的区间。q聚类分析产生概念分层可能会将一个工资区间 划分为:51263.98, 60872.34q通常数据分析人员希望看到划分的形式为 50000,60000n自然划分的3-4-5规则常被用来将数值数据划 分为相对一致,“更自然”的区间自然划分的3-4-5规则n规则的划分步骤:q如果一个区间最高有效位上包含3,6,7或9个不同的值 ,就将该区间划分为3个等宽子区间;(72,3,2)q如果一个区间最高有效位上包含2,4,或8个不同的值 ,就将该区间划分为4个等宽子区间;q如果一个区间最高有效位上包含1,5,或10个不同的值 ,就将该区间划分为

13、5个等宽子区间;q将该规则递归的应用于每个子区间,产生给定数值属性 的概念分层;q对于数据集中出现的最大值和最小值的极端分布,为了 避免上述方法出现的结果扭曲,可以在顶层分段时,选用一 个大部分的概率空间。e.g. 5%-95%3-4-5规则例子(-$4000 -$5,000)(-$400 - 0)(-$400 -$300)(-$300 - -$200)(-$200 -$100)(-$100 -0)(0 - $1,000)(0 - $200)($200 -$400)($400 -$600)($600 -$800)($800 -$1,000)($2,000 - $5, 000)($2,000 -

14、$3,000)($3,000 -$4,000)($4,000 -$5,000)($1,000 - $2, 000)($1,000 -$1,200)($1,200 -$1,400)($1,400 -$1,600)($1,600 -$1,800)($1,800 -$2,000)msd=1,000Low=-$1,000High=$2,000第二步第四步第一步-$351-$159profit $1,838 $4,700Min Low (i.e, 5%-tile) High(i.e, 95%-0 tile) Maxcount(-$1,000 - $2,000)(-$1,000 - 0)(0 -$ 1,0

15、00)第三步($1,000 - $2,000)分类数据的概念分层生成n分类数据是指无序的离散数据,它有有限个值(可能 很多个)。n分类数据的概念分层生成方法:q由用户或专家在模式级显式的说明属性的部分序。q通过显示数据分组说明分层结构的一部分。q说明属性集,但不说明它们的偏序,然后系统根据算法 自动产生属性的序,构造有意义的概念分层。q对只说明部分属性集的情况,则可根据数据库模式中的 数据语义定义对属性的捆绑信息,来恢复相关的属性。属性集的规格n根据在给定属性集中,每个属性所包含的不同 值的个数,可以自动的生成概念分成;不同值 个数最多的属性将被放在概念分层的最底层。countryprovincecitystreet5个不同值65 个不同值3567 个不同值674,339 个不同值

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 高等教育 > 其它相关文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号