CHAPTER2-数据预处理

上传人:cn****1 文档编号:584560046 上传时间:2024-08-31 格式:PPT 页数:66 大小:757KB
返回 下载 相关 举报
CHAPTER2-数据预处理_第1页
第1页 / 共66页
CHAPTER2-数据预处理_第2页
第2页 / 共66页
CHAPTER2-数据预处理_第3页
第3页 / 共66页
CHAPTER2-数据预处理_第4页
第4页 / 共66页
CHAPTER2-数据预处理_第5页
第5页 / 共66页
点击查看更多>>
资源描述

《CHAPTER2-数据预处理》由会员分享,可在线阅读,更多相关《CHAPTER2-数据预处理(66页珍藏版)》请在金锄头文库上搜索。

1、第第2章章: 数据预处理数据预处理n为什么预处理数据为什么预处理数据?n数据清理数据清理 n数据集成数据集成n数据归约数据归约n离散化和概念分层产生离散化和概念分层产生n小结小结1为什么数据预处理为什么数据预处理?n现实世界中的数据是脏的现实世界中的数据是脏的n不完全不完全: 缺少属性值缺少属性值, 缺少某些有趣的属性缺少某些有趣的属性, 或仅包含聚集数据或仅包含聚集数据n例例, occupation=“”n噪音噪音: 包含错误或孤立点包含错误或孤立点n例例, Salary=“-10”n不一致不一致: 编码或名字存在差异编码或名字存在差异n例例, Age=“42” Birthday=“03/0

2、7/2010”n例例, 以前的等级以前的等级 “1,2,3”, 现在的等级现在的等级 “A, B, C”n例例, 重复记录间的差异重复记录间的差异2数据为什么脏数据为什么脏?n不完全数据源于不完全数据源于n数据收集时未包含数据收集时未包含n数据收集和数据分析时的不同考虑数据收集和数据分析时的不同考虑.n人人/硬件硬件/软件问题软件问题n噪音数据源于噪音数据源于n收集收集n录入录入n变换变换n不一致数据源于不一致数据源于n不同的数据源不同的数据源n违反函数依赖违反函数依赖3为什么数据预处理是重要的为什么数据预处理是重要的?n没有高质量的数据没有高质量的数据, 就没有高质量的数据挖掘结果就没有高质

3、量的数据挖掘结果!n高质量的决策必然依赖高质量的数据高质量的决策必然依赖高质量的数据n例如例如, 重复或遗漏的数据可能导致不正确或误重复或遗漏的数据可能导致不正确或误导的统计导的统计.n数据仓库需要高质量数据的一致集成数据仓库需要高质量数据的一致集成4数据质量:一个多维视角数据质量:一个多维视角n一种广泛接受的多角度一种广泛接受的多角度:n正确性正确性(Accuracy)n完全性完全性(Completeness)n一致性一致性(Consistency)n合时合时(Timeliness):timely update? n可信性可信性(Believability)n可解释性可解释性(Interpr

4、etability)n可存取性可存取性(Accessibility)5数据预处理的主要任务数据预处理的主要任务n数据清理数据清理n填充缺失值填充缺失值, 识别识别/去除离群点去除离群点, 光滑噪音光滑噪音, 并纠正数据中的并纠正数据中的不一致不一致n数据集成数据集成n多个数据库多个数据库, 数据立方体数据立方体, 或文件的集成或文件的集成n数据变换数据变换n规范化和聚集规范化和聚集n数据归约数据归约n得到数据的归约表示得到数据的归约表示, 它小得多它小得多, 但产生相同或类似的分析但产生相同或类似的分析结果:维度规约、数值规约、数据压缩结果:维度规约、数值规约、数据压缩n数据离散化和概念分层数

5、据离散化和概念分层6数据预处理的形式数据预处理的形式 7第第2章章: 数据预处理数据预处理n为什么预处理数据为什么预处理数据?n数据清理数据清理 n数据集成数据集成n数据归约数据归约n离散化和概念分层产生离散化和概念分层产生n小结小结8数据清理数据清理 Data Cleaningn现实世界现实世界de数据是脏:很多潜在的不正确的数据,比如,数据是脏:很多潜在的不正确的数据,比如,仪器故障,人为或计算机错误,许多传输错误仪器故障,人为或计算机错误,许多传输错误nincomplete:缺少属性值缺少属性值, 缺少某些有趣的属性缺少某些有趣的属性, 或仅包含聚集数据或仅包含聚集数据ne.g., 职业

6、职业=“ ” (missing data)nnoisy:包含错误或孤立点包含错误或孤立点ne.g., Salary=“10” (an error)ninconsistent:编码或名字存在差异编码或名字存在差异, e.g.,nAge=“42”, Birthday=“03/07/2010”n以前的等级以前的等级 “1, 2, 3”, 现在等级现在等级 “A, B, C”n重复记录间的差异重复记录间的差异n有意的有意的(e.g.,变相丢失的数据变相丢失的数据)nJan. 1 as everyones birthday?9如何处理缺失数据如何处理缺失数据?n忽略元组忽略元组: 缺少类别标签时常用缺少

7、类别标签时常用(假定涉及分类假定涉及分类不是很有不是很有效,当每个属性的缺失百分比变化大时效,当每个属性的缺失百分比变化大时n手工填写缺失数据手工填写缺失数据: 乏味乏味+费时费时+不可行不可行 ?n自动填充自动填充n一个全局常量一个全局常量 : e.g., “unknown”, a new class?! n使用属性均值使用属性均值n与目标元组同一类的所有样本的属性均值与目标元组同一类的所有样本的属性均值: 更巧妙更巧妙n最可能的值最可能的值: 基于推理的方法,如基于推理的方法,如贝叶斯公式或决策树贝叶斯公式或决策树10噪音数据噪音数据Noisy DatanNoise: 被测量的变量的随机误

8、差或方差被测量的变量的随机误差或方差n不正确的属性值可能由于不正确的属性值可能由于n错误的数据收集工具错误的数据收集工具n数据录入问题数据录入问题 data entry problemsn数据传输问题数据传输问题data transmission problemsn技术限制技术限制 technology limitationn不一致的命名惯例不一致的命名惯例 inconsistency in naming convention n其他需要数据清理的问题其他需要数据清理的问题n重复记录重复记录 duplicate recordsn数据不完整数据不完整 incomplete datan不一致的数据

9、不一致的数据 inconsistent data11如何处理噪音数据如何处理噪音数据?n分箱分箱Binning method:n排序数据,分布到等频排序数据,分布到等频/等宽的箱等宽的箱/桶中桶中n箱均值光滑、箱中位数光滑、箱边界光滑箱均值光滑、箱中位数光滑、箱边界光滑, etc.n聚类聚类Clusteringn检测和去除检测和去除 离群点离群点/孤立点孤立点 outliersn计算机和人工检查相结合计算机和人工检查相结合n人工检查可疑值人工检查可疑值 (e.g., deal with possible outliers)n回归回归 Regressionn回归函数拟合数据回归函数拟合数据12分

10、箱:简单的离散化方法分箱:简单的离散化方法n等宽度等宽度Equal-width (distance) 剖分剖分:n分成大小相等的分成大小相等的n个区间个区间: 均匀网格均匀网格 uniform gridn若若A和和B是是 属性的最低和最高取值属性的最低和最高取值, 区间宽度为区间宽度为: W = (B A)/N.n孤立点可能占据重要影响孤立点可能占据重要影响 may dominate presentationn倾斜的数据处理不好倾斜的数据处理不好.n等频剖分等频剖分 (frequency) /等深等深equi-depth :n分成分成n个区间个区间, 每一个含近似相同数目的样本每一个含近似相同

11、数目的样本nGood data scalingn类别属性可能会非常棘手类别属性可能会非常棘手.13Binning Methods for Data Smoothing* Sorted data for price (in dollars): 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34* Partition into (equi-depth) bins: - Bin 1: 4, 8, 9, 15 - Bin 2: 21, 21, 24, 25 - Bin 3: 26, 28, 29, 34* Smoothing by bin means: - Bin

12、1: 9, 9, 9, 9 - Bin 2: 23, 23, 23, 23 - Bin 3: 29, 29, 29, 29* Smoothing by bin boundaries: - Bin 1: 4, 4, 4, 15 - Bin 2: 21, 21, 25, 25 - Bin 3: 26, 26, 26, 3414聚类分析聚类分析15Regressionxyy = x + 1X1Y1Y116数据清理作为一个过程数据清理作为一个过程n数据偏差检测数据偏差检测 Data discrepancy detectionn使用元数据使用元数据(数据性质的知识数据性质的知识)(e.g.,领域领域,

13、长度范围长度范围,从属从属, 分布分布)n检查字段过载检查字段过载 field overloading n检查唯一性规则检查唯一性规则, 连续性规则连续性规则,空值规则空值规则n使用商业工具使用商业工具n数据清洗数据清洗Data scrubbing: 使用简单的领域知识使用简单的领域知识(e.g., 邮编邮编, 拼写检拼写检查查) 检查并纠正错误检查并纠正错误n数据审计数据审计 Data auditing: 通过分析数据发现规则和联系发现违规通过分析数据发现规则和联系发现违规者者(孤立点孤立点)n数据迁移和集成数据迁移和集成n数据迁移工具数据迁移工具Data migration tools:允

14、许指定转换允许指定转换n提取提取/变换变换/装入工具装入工具ETL (Extraction/Transformation/Loading) tools: 允许用户通过图形用户界面指定变换允许用户通过图形用户界面指定变换n整合两个过程整合两个过程n两个过程迭代和交互执行两个过程迭代和交互执行(e.g., Potters Wheels)17第第2章章: 数据预处理数据预处理n为什么预处理数据为什么预处理数据?n数据清理数据清理 n数据集成数据集成n数据归约数据归约n离散化和概念分层产生离散化和概念分层产生n小结小结18数据集成数据集成n数据集成数据集成 Data integration: n合并多

15、个数据源中的数据,存在一个一致的数据存储中合并多个数据源中的数据,存在一个一致的数据存储中n涉及涉及3个主要问题:模式集成、冗余数据、冲突数据值个主要问题:模式集成、冗余数据、冲突数据值n模式集成模式集成 Schema integration n例如例如., A.cust-id ? B.cust-#n实体识别问题实体识别问题 Entity identification problem: n多个数据源的真实世界的实体的识别多个数据源的真实世界的实体的识别, e.g., Bill Clinton = William Clintonn集成不同来源的元数据集成不同来源的元数据n冲突数据值的检测和解决冲

16、突数据值的检测和解决n对真实世界的实体,其不同来源的属性值可能不同对真实世界的实体,其不同来源的属性值可能不同n原因原因:不同的表示不同的表示,不同尺度不同尺度,公制公制 vs. 英制英制19数据集成中冗余数据处理数据集成中冗余数据处理n冗余数据冗余数据Redundant data (集成多个数据库时出(集成多个数据库时出现)现)n目标识别:同一个属性在不同的数据库中有不同的名称目标识别:同一个属性在不同的数据库中有不同的名称n衍生数据:一个属性值可由其他表的属性推导出衍生数据:一个属性值可由其他表的属性推导出, e.g.,年年收入收入n相关分析相关分析 correlation analysi

17、s /协方差分析协方差分析covariance analysisn可用于检测冗余数据可用于检测冗余数据n小心的集成多个来源的数据可以帮助降低和避免结果数据小心的集成多个来源的数据可以帮助降低和避免结果数据集中的冗余和不一致,提高数据挖掘的速度和质量集中的冗余和不一致,提高数据挖掘的速度和质量20相关分析相关分析 (数值数据数值数据)nCorrelation coefficient (also called Pearsons product moment coefficient)n相关系数(皮尔逊相关系数)相关系数(皮尔逊相关系数)n元组个数元组个数, 和和 属性属性A和和B上的平均值上的平均值

18、, A and B分别为各自标准差,分别为各自标准差, (aibi) is the AB叉积叉积 cross-product之和之和.nIf rA,B 0, A and B 整相关整相关 (As values increase as Bs). 值越大相关程度值越大相关程度越高越高.nrA,B = 0: 不相关不相关; rAB 0, 则则A 和和B 同时倾向于大于期望值同时倾向于大于期望值.n负covariance: If CovA,B 0.25相关分析相关分析 (名义数据名义数据Nominal Data)n2 (chi-square) test 开方开方检验nij是是(ai,bj)的观测频度(

19、实际计数)的观测频度(实际计数)neij是是(ai,bj)的期望频度的期望频度nN数据元组的个数数据元组的个数(A=ai,B=bj)n2 值越大值越大,相关的可能越大相关的可能越大n对对 2 值贡献最大的项,其值贡献最大的项,其实际值与期望值相差最大的实际值与期望值相差最大的相相n相关不意味着因果关系相关不意味着因果关系26Chi-Square 卡方值计算卡方值计算: 例子例子n2 (chi-square) 计算计算(括号中的值为期望计值,由两个类别的分布数据计括号中的值为期望计值,由两个类别的分布数据计算得到算得到)n结果表明结果表明like_fiction 和和play_chess 关联关

20、联27数据变换数据变换Data Transformationn光滑光滑: 去掉噪音,技术:分箱、回归、聚类去掉噪音,技术:分箱、回归、聚类n聚集聚集Aggregation:汇总汇总, 数据立方体构造数据立方体构造n数据泛化数据泛化Generalization:概念分层概念分层n规范化规范化Normalization:按比例缩放到一个具体区间按比例缩放到一个具体区间n最小最小-最大规范化最大规范化nz-score 规范化规范化n小数定标规范化小数定标规范化n属性属性Attribute/特征特征feature 构造构造n从给定的属性构造新属性从给定的属性构造新属性n机器学习中称为:特征构造机器学习

21、中称为:特征构造数据规约28规范化数据的方法规范化数据的方法n最小最小-最大规范化最大规范化 min-max normalizationn新数据可能新数据可能“越界越界”nz-score normalizationnnormalization by decimal scalingn移动属性移动属性A的小数点位置的小数点位置(移动位数依赖于属性移动位数依赖于属性A的最大值的最大值)J为使得 Max(| |)最后的集合: A1, A4, A6维度规约维度规约-决策树规约决策树规约3839维度规约维度规约-属性属性/特征产生特征产生nFeature Generation 产生新的属性,其可以比产生新

22、的属性,其可以比原始原始属性属性更有效地更有效地表示数据的重要信息。表示数据的重要信息。n三个一般方法三个一般方法:n属性提取属性提取 Attribute extractionn特定领域的特定领域的n映射数据到新空间映射数据到新空间nE.g., 傅立叶变换傅立叶变换, wavelet transformation, 流形方法流形方法( manifold approaches)n属性构造属性构造n组合特征组合特征n数据离散化数据离散化 Data discretization3940x2x1e主成分分析主成分分析 (PCA)nprincipal component analysis,K-L变换变换

23、n找到一个投影,其能表示数据的最大变化找到一个投影,其能表示数据的最大变化n原始数据投影到一个更小的空间中,导致维度减少原始数据投影到一个更小的空间中,导致维度减少. n发现的协方差矩阵的特征向量,用这些特征向量定义新发现的协方差矩阵的特征向量,用这些特征向量定义新的空间的空间4041n给定给定 p维维空间中的空间中的N各点各点, 找到找到 k p 个正交向量个正交向量 (principal components) 可以很好表示原始数据的可以很好表示原始数据的 n归范化输入数据归范化输入数据: 每个属性值位于相同的区间内每个属性值位于相同的区间内n计算计算 k 个标准正交向量个标准正交向量,

24、i.e., principal componentsn每个输入的点是这每个输入的点是这k 个主成分的线性组合个主成分的线性组合nThe principal components are sorted in order of decreasing “significance” or strengthnSince the components are sorted, the size of the data can be reduced by eliminating the weak components(i.e., using the strongest principal components

25、, it is possible to reconstruct a good approximation of the original data)nWorks for numeric data only主成分分析主成分分析 (Steps)41X1X2Y1Y2Principal Component Analysis42数值规约数值规约n选择替代的、选择替代的、“较小的较小的”数据表示形式数据表示形式n参数方法参数方法n假设数据适合某个模型,估计模型参数,仅存储的参假设数据适合某个模型,估计模型参数,仅存储的参数,并丢弃数据(孤立点除外)数,并丢弃数据(孤立点除外)n对数线性模型对数线性模型:n

26、基于一个较小的维组合的子集来估计基于一个较小的维组合的子集来估计 离散属性的离散属性的多维空间中每个点的概率多维空间中每个点的概率n非参数方法非参数方法n不假定模型不假定模型nhistograms, clustering, sampling 43回归和对数线性模型回归和对数线性模型n线性回归线性回归: 数据拟合到一条直线上数据拟合到一条直线上n通常使用最小二乘法拟合通常使用最小二乘法拟合n多元线性回归多元线性回归n允许响应变量允许响应变量Y表示为多个预测变量的函数表示为多个预测变量的函数n对数线性模型对数线性模型: n近似离散的多维概率分布近似离散的多维概率分布4445回归分析回归分析n研究因

27、变量因变量/响应变量响应变量Y(dependent variable/response variable) 对个或多个自变量自变量/解解释变释变量量(independent variable / explanatory variable)的相依关系的方法的统称n参数需要估计以最好的拟合给定参数需要估计以最好的拟合给定的数据的数据n绝大多数情况绝大多数情况“最好的拟合最好的拟合”是由是由最小二乘法最小二乘法(least squares method)实实现现, 其他的方法也有其他的方法也有n用于预测(包括时间用于预测(包括时间序列数据的预测),序列数据的预测),推断,假设检验和因推断,假设检验和

28、因果关系的建模果关系的建模yxy = x + 1X1Y1Y145线性回归线性回归-用于预测用于预测Y: -diameter at breast height(DBH) X: - Age46线性回归线性回归(cont.)nGiven x, construct the linear regression model for y against x as:nLeast squares estimation of y given variable x is:47多元线性回归多元线性回归n响应变量响应变量: w,自变量,自变量: A1,A2,Ak.n“5” 样本数目样本数目48直方图直方图Histogr

29、amsn把数据划分成不相交的子把数据划分成不相交的子集或桶集或桶n一维时可用动态规划优化一维时可用动态规划优化构建构建n涉及量化问题涉及量化问题49聚类聚类Clusteringn将对象划分成集将对象划分成集/簇簇, 用簇的表示替换实际数据用簇的表示替换实际数据n技术的有效性依赖于数据的质量技术的有效性依赖于数据的质量n使用层次聚类,并多维索引树结构存放使用层次聚类,并多维索引树结构存放n非常多的聚类算法和定义非常多的聚类算法和定义50抽样抽样Samplingn抽样抽样: 获得一个小的样本集获得一个小的样本集s来表示整个数据集来表示整个数据集 Nn允许一个挖据算法运行复杂度子线性于样本大小允许一

30、个挖据算法运行复杂度子线性于样本大小n关键原则关键原则:选择一个有代表性的数据子集选择一个有代表性的数据子集n数据偏斜时简单随机抽样的性能很差数据偏斜时简单随机抽样的性能很差n发展适应抽样方法:分层抽样发展适应抽样方法:分层抽样 nNote: Sampling may not reduce database I/Os (page at a time)51抽样类型抽样类型 Types of Samplingn简单随机抽样 Simple random samplingn相同的概率选择任何特定项目相同的概率选择任何特定项目n无放回抽样 Sampling without replacementnOnc

31、e an object is selected, it is removed from the populationn放回抽样Sampling with replacementn一个被抽中的目标不从总体中去除一个被抽中的目标不从总体中去除n分层抽样 Stratified sampling: n把数据分成不相交部分把数据分成不相交部分(层层), 然后从每个层抽样然后从每个层抽样(按比例按比例/大大约相同比例的数据约相同比例的数据) n偏斜数据偏斜数据52Sampling: With or without ReplacementSRSWOR(simple random sample without

32、 replacement)SRSWRRaw Data53Sampling: Cluster or Stratified SamplingRaw Data Cluster/Stratified Sample54第第2章章: 数据预处理数据预处理n为什么预处理数据为什么预处理数据?n数据清理数据清理 n数据集成数据集成n数据归约数据归约n离散化和概念分层产生离散化和概念分层产生n小结小结55离散化离散化 Discretization和概念分成和概念分成n三种类型属性三种类型属性:n名义名义 values from an unordered set, color, professionn顺序数顺序数

33、 values from an ordered set , e.g., military or academic rank n连续连续 real numbersn离散化离散化 Discretization: 把连续属性的区域分成区间把连续属性的区域分成区间n区间标号可以代替实际数据值区间标号可以代替实际数据值 n利用离散化减少数据量利用离散化减少数据量n有监督有监督 vs. 无监督:是否使用类的信息无监督:是否使用类的信息n某个属性上可以递归离散化某个属性上可以递归离散化n分裂分裂 Split (top-down) vs. 合并合并merge (bottom-up)n自顶向下:由一个自顶向下:

34、由一个/几个点开始递归划分整个属性区间几个点开始递归划分整个属性区间n递归离散化属性,产生属性值分层递归离散化属性,产生属性值分层/多分辨率划分:多分辨率划分:概念分层概念分层56数值数据离散化数值数据离散化/概念分层概念分层n分箱分箱 Binning(Top-down split, unsupervised)n直方图(直方图(Top-down split, unsupervised)n聚类聚类 (unsupervised, top-down split or bottom-up merge)n基于基于 2 分析的区间合并分析的区间合并(unsupervised, bottom-up merg

35、e)n基于熵基于熵 Entropy-based discretizationn根据自然划分根据自然划分57不用类别不用类别(Binning vs. Clustering) DataEqual interval width (binning)Equal frequency (binning)K-means clustering leads to better results58基于熵基于熵Entropy的离散化的离散化59 Chi-merge离散化离散化nChi-merge: 2-based discretizationn有监督有监督: use class informationn自自低低向向上

36、上: find the best neighboring intervals (具具有有相相似似的的类类别分布别分布, i.e., low 2 values) to mergen递归地合并递归地合并, until a predefined stopping condition60由自然划分离散化由自然划分离散化n3-4-5 规则规则n如果最高有效位包含如果最高有效位包含 3, 6, 7 or 9 个不同的值个不同的值, partition the range into 3 个等宽区间(个等宽区间(7:2-3-2分成分成3个区间)个区间)n2, 4, or 8 不同的值不同的值, 区域分成区域分

37、成 4 个等宽区间个等宽区间n1, 5, or 10 不同的值不同的值, 区域分成区域分成5 个等宽区间个等宽区间n类似地,逐层使用此规则类似地,逐层使用此规则61分类数据的概念分层分类数据的概念分层 Categorical Datan用户用户/专家在模式级显式地指定属性的偏序专家在模式级显式地指定属性的偏序nstreetcitystatecountryn通过显式数据分组说明分层通过显式数据分组说明分层n厄巴厄巴纳,香,香槟,芝加哥,芝加哥Illinoisn只说明属性集只说明属性集 n系统自动产生属性偏序,根据系统自动产生属性偏序,根据 每个属性下不同值的数据每个属性下不同值的数据n启发式规则

38、:相比低层,高层概念的属性通常有较少取值启发式规则:相比低层,高层概念的属性通常有较少取值nE.g., street city state countryn只说明部分属性值只说明部分属性值62自动产生概念分层自动产生概念分层nSome concept hierarchies can be automatically generated based on the analysis of the number of distinct values per attribute in the given data set n含不同值最多的属性放在层次的最低层含不同值最多的属性放在层次的最低层nNote

39、: Exceptionweekday, month, quarter, yearcountryprovince_or_ statecitystreet15 distinct values65 distinct values3567 distinct values674,339 distinct values63SummarynData preparation is a big issue for both warehousing and miningnData preparation includesnData cleaning and data integrationnData reduct

40、ion and feature selectionnDiscretizationnA lot a methods have been developed but still an active area of research64Data Reduction, Transformation, IntegrationnData QualitynMajor Tasks in Data PreprocessingnData Cleaning and Data IntegrationnData Cleaningni. Missing Data and Misguided Missing Datanii

41、. Noisy Dataniii. Data Cleaning as a ProcessnData Integration MethodsnData ReductionnData Reduction StrategiesnDimensionality Reductionni. Principal Component analysisnii. Feature Subset Selectionniii. Feature CreationnNumerosity Reductionni. Parametric Data Reduction: Regression and Log-Linear Mode

42、lsnii. Mapping Data to a New Space: Wavelet Transformationniii. Data Cube aggregationniv. Data Compressionnv. Histogram analysisnvi. Clusteringnvii. Sampling: Sampling without Replacement, Stratified SamplingnData Transformation and Data DiscretizationnData Transformation: NormalizationnData Discret

43、ization Methodsni. Binningnii. Cluster Analysisniii. Discretization Using Class Labels: Entropy-Based Discretizationniv. Discretization Without Using Class Labels: Interval Merge by 2 AnalysisnConcept Hierarchy and Its Formationni. Concept Hierarchy Generation for Numerical Datanii. Concept Hierarch

44、y Generation for Categorical Dataniii. Automatic Concept Hierarchy Generation65ReferencesnE. Rahm and H. H. Do. Data Cleaning: Problems and Current Approaches. IEEE Bulletin of the Technical Committee on Data Engineering. Vol.23, No.4nD. P. Ballou and G. K. Tayi. Enhancing data quality in data wareh

45、ouse environments. Communications of ACM, 42:73-78, 1999.nH.V. Jagadish et al., Special Issue on Data Reduction Techniques. Bulletin of the Technical Committee on Data Engineering, 20(4), December 1997.nA. Maydanchik, Challenges of Efficient Data Cleansing (DM Review - Data Quality resource portal)n

46、D. Pyle. Data Preparation for Data Mining. Morgan Kaufmann, 1999.nD. Quass. A Framework for research in Data Cleaning. (Draft 1999)nV. Raman and J. Hellerstein. Potters Wheel: An Interactive Framework for Data Cleaning and Transformation, VLDB2001.nT. Redman. Data Quality: Management and Technology. Bantam Books, New York, 1992.nY. Wand and R. Wang. Anchoring data quality dimensions ontological foundations. Communications of ACM, 39:86-95, 1996.nR. Wang, V. Storey, and C. Firth. A framework for analysis of data quality research. IEEE Trans. Knowledge and Data Engineering, 7:623-640, 1995.66

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 高等教育 > 研究生课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号