大数据分析方法

上传人:资**** 文档编号:57139619 上传时间:2018-10-19 格式:PPT 页数:65 大小:6.73MB
返回 下载 相关 举报
大数据分析方法_第1页
第1页 / 共65页
大数据分析方法_第2页
第2页 / 共65页
大数据分析方法_第3页
第3页 / 共65页
大数据分析方法_第4页
第4页 / 共65页
大数据分析方法_第5页
第5页 / 共65页
点击查看更多>>
资源描述

《大数据分析方法》由会员分享,可在线阅读,更多相关《大数据分析方法(65页珍藏版)》请在金锄头文库上搜索。

1、大数据分析,目录,数据分析即从数据、信息到知识的过程,数据分析需要数学理论、行业经验以及计算机工具三者结合,数学&统计学知识 数据分析的基础,将整理、描述、预测数据的手段、过程抽象为数学模型的理论知识,工具支撑 各种厂商开发了数据分析的工具、模块,将分析模型封装,使不了解技术的人也能够快捷的实现数学建模,快速响应分析需求。,行业经验 行业经验可在数据分析前确定分析需求,分析中检验方法是否合理,以及分析后指导应用,但行业特征不同,其应用也不同,因此本文不展开介绍,传统分析 在数据量较少时,传统的数据分析已能够发现数据中包含的知识,包括结构分析、杜邦分析等模型,方法成熟,应用广泛,本文不展开介绍,

2、分析误区 不了解分析模型的数学原理,会导致错误的使用模型,而得出错误的分析结论,影响业务决策,因此在选用分析模型时,要深入了解该模型的原理和使用限制,机器学习 不需要人过多干预,通过计算机自动学习,发现数据规律,但结论不易控制。,数据挖掘 数据挖掘是挖掘数据背后隐藏的知识的重要手段,随着计算机技术发展和数据分析理论的更新,当前的数据分析逐步成为机器语言、统计知识两个学科的交集(备选),计算机技术,统计学、人工智能,业务数据,数据挖掘 就是充分利用了统计学和人工智能技术的应用程序,并把这些高深复杂的技术封装起来,使人们不用自己掌握这些技术也能完成同样的功能,并且更专注于自己所要解决的问题。,信息

3、处理,信息处理 信息处理基于查询,可以发现有用的信息。但是这种查询的回答反映的是直接存放在数据库中的信息。它们不反映复杂的模式,或隐藏在数据库中的规律。,传统分析,数据分析 工具,传统分析 在数据量较少时,传统的数据分析已能够发现数据中包含的知识,包括结构分析、杜邦分析等模型,方法成熟,应用广泛,本文不展开介绍,数据分析工具 各种厂商开发了数据分析的工具、模块,将分析模型封装,使不了解技术的人也能够快捷的实现数学建模,快速响应分析需求。,随着计算机科学的进步,数据挖掘、商务智能、大数据等概念的出现,数据分析的手段和方法更加丰富,一系列以事实为支持,辅助商业决策的技术和方法,曾用名包括专家系统、

4、智能决策等 一般由数据仓库、联机分析处理、数据挖掘、数据备份和恢复等部分组成 对数据分析的体系化管理,数据分析的主体依然是数据挖掘,结构分析,分组分析,杜邦分析,预警分析,常规分析,揭示数据之间的静态关系 分析过程滞后 对数据质量要求高,商务智能,数据挖掘,大数据技术,数据可视化,统计学和计算机技术等多学科的结合 揭示数据之间隐藏的关系 将数据分析的范围从“已知”扩展到“未知”,从“过去”推向“将来”,从多种类型的数据中,快速获取知识的能力 数据挖掘技术的衍生,大数据时代,展示数据可以更好辅助理解数据、演绎数据,本文在描述数据分析的流程后,重点介绍通用的数据分析方法和主流的应用工具、软件。 随

5、着数据量的不断扩大,数据分析理论正处于飞速发展期,因此本文的方法侧重于基础原理介绍。,数据 分析,目录,概述,1.业务理解(business understanding)确定目标、明确分析需求 2.数据理解(data understanding)收集原始数据、描述数据、探索数据、检验数据质量 3.数据准备(data preparation)选择数据、清洗数据、构造数据、整合数据、格式化数据 4.建立模型(modeling)选择建模技术、参数调优、生成测试计划、构建模型 5.评估模型(evaluation)对模型进行较为全面的评价,评价结果、重审过程 6.部署(deployment)分析结果应用

6、,数据分析标准流程,CRISP-DM为90年代由SIG组织(当时)提出,已被业界广泛认可的数据分析流程。,数据分析框架,业务理解,数据理解,数据准备,建立模型,理解业务背景,评估分析需求,模型评估,应用,理解业务背景: 数据分析的本质是服务于业务需求,如果没有业务理解,缺乏业务指导,会导致分析无法落地。 评估业务需求: 判断分析需求是否可以转换为数据分析项目,某些需求是不能有效转换为数据分析项目的,比如不符合商业逻辑、数据不足、数据质量极差等。,数据收集 数据清洗,数据收集: 抽取的数据必须能够正确反映业务需求,否则分析结论会对业务将造成误导。 数据清洗: 原始数据中存在数据缺失和坏数据,如果

7、不处理会导致模型失效,因此对数据通过过滤“去噪”从而提取出有效数据,数据探索 数据转换,选择方法、工具,建立模型,建模过程评估 模型结果评估,分析结果应用 分析模型改进,探索数据: 运用统计方法对数据进行探索,发现数据内部规律。 数据转换: 为了达到模型的输入数据要求,需要对数据进行转换,包括生成衍生变量、一致化、标准化等。,建立模型: 综合考虑业务需求精度、数据情况、花费成本等因素,选择最合适的模型。 在实践中对于一个分析目的,往往运用多个模型,然后通过后续的模型评估,进行优化、调整,以寻求最合适的模型。,建模过程评估: 对模型的精度、准确性、效率和通用性进行评估。, 模型结果评估: 评估是

8、否有遗漏的业务,模型结果是否回答了当初的业务问题,需要结合业务专家进行评估。,结果应用: 将模型应用于业务实践,才能实现数据分析的真正价值:产生商业价值和解决业务问题。 模型改进: 对模型应用效果的及时跟踪和反馈,以便后期的模型调整和优化。,业务理解,数据理解,数据准备,建立模型,模型评估,开始,是否明确需求,否,否,数据探索,结构分析,分布特性,特征描述,分类与回归,聚类分析,时序模型,关联分析,结构优化,分析结果应用,数据分析框架,理解业务背景,评估分析需求,是,是否满足要求,收集数据,否,是,是,建立模型,数据清洗,数据转换,SVM算法,KNN算法,目录,概述,数据分析框架,数据清洗&数

9、据探索,数据收集的方法多种多样,本文不再详述。在对收集的数据进行分析前,要明确数据类型、规模,对数据有初步理解,同时要对数据中的“噪声”进行处理,以支持后续数据建模。,数据清洗和数据探索通常交互进行 数据探索有助于选择数据清洗方法 数据清洗后可以更有效的进行数据探索,给定一个置信概率,并确定一个置信限,凡超过此限的误差,就认为它不属于随机误差范围,将其视为异常值。 常用的方法(数据来源于同一分布,且是正态的):拉依达准则、肖维勒准则、格拉布斯准则、狄克逊准则、t检验。,根据人们对客观事物、业务等已有的认识,判别由于外界干扰、人为误差等原因造成实测数据偏离正常结果,判断异常值。 比较困难,数据清

10、洗的第一步是识别会影响分析结果的“异常”数据,然后判断是否剔除。目前常用的识别异常数据的方法有物理判别法和统计判别法,数据清洗:1.异常值判别,12,物理判别法,统计判别法,慎重对待删除异常值:为减少犯错误的概率,可多种统计判别法结合使用,并尽力寻找异常值出现的原因;若有多个异常值,应逐个删除,即删除一个异常值后,需再行检验后方可再删除另一个异常值 检验方法以正态分布为前提,若数据偏离正态分布或样本较小时,则检验结果未必可靠,校验是否正态分布可借助W检验、D检验,注意,常见统计判别法,由包含m个插补值的向量代替每一个缺失值,然后对新产生的m个数据集使用相同的方法处理,得到处理结果后,综合结果,

11、最终得到对目标变量的估计,在给定完全数据和前一次迭代所得到的参数估计的情况下计算完全数据对应的对数似然函数的条件期望(E步),后用极大化对数似然函数以确定参数的值,并用于下步的迭代(M步),基于完整的数据集,建立回归方程(模型),对于包含空值的对象,将已知属性值代入方程来估计未知属性值,以此估计值来进行填充;但当变量不是线性相关或预测变量高度相关时会导致估计偏差,先根据欧式距离或相关分析确定距离缺失数据样本最近的K个样本,将这K个值加权平均来估计缺失数据值,取所有对象(或与该对象具有相同决策属性值的对象)的平均值来填充该缺失的属性值,数据清洗:2.缺失值处理,平均值填充,K最近距离法,回归,极

12、大似线估计,多重插补法,在数据缺失严重时,会对分析结果造成较大影响,因此对剔除的异常值以及缺失值,要采用合理的方法进行填补,常见的方法有平均值填充、K最近距离法、回归法、极大似线估计法等,随着数据量的增大,异常值和缺失值对整体分析结果的影响会逐渐变小,因此在“大数据”模式下,数据清洗可忽略异常值和缺失值的影响,而侧重对数据结构合理性的分析,数据探索,通过数据探索,初步发现数据特征、规律,为后续数据建模提供输入依据,常见的数据探索方法有数据特征描述、相关性分析、主成分分析等。,结构优化,描述已有数据特征 数据分布特征描述 ,数据探索要遵循由浅入深、由易到难的步骤,概率分布,特征描述,推断整体数据

13、特征 参数检验 非参数检验 ,探索数据之间的关系 相关性分析 主成分分析 ,数据特征描述,中心位置,众数 中位数/四分位数 均值,分散程度,方差和标准差 极差、四分位差 标准分数 z-score 离散系数,图形特征,偏度 数据分布偏斜程度的测度峰度 数据分布扁平程度的测度,数据概率分布,概率分布可以表述随机变量取值的概率规律,是掌握数据变化趋势和范围的一个重要手段。,离散分布,均匀分布,二项分布,几何分布,离散型均匀分布是一个离散型概率分布,其中有限个数值拥有相同的概率,1.在每次试验中只有两种可能的结果,而且是互相对立的; 2.每次实验是独立的,与其它各次试验结果无关; 3.结果事件发生的概

14、率在整个系列试验中保持不变,则这一系列试验称为伯努力试验。,以下两种离散型概率分布中的一种: 在伯努利试验中,得到一次成功所需要的试验次数X。X的值域是 1, 2, 3, . 在得到第一次成功之前所经历的失败次数Y = X 1。Y的值域是 0, 1, 2, 3, . ,泊松近似,泊松近似是二项分布的一种极限形式。其强调如下的试验前提:一次抽样的概率值相对很小,而抽取次数值又相对很大。因此泊松分布又被称之为罕有事件分布。泊松分布指出,如果随机一次试验出现的概率为p,那么在n次试验中出现k次的概率按照泊松分布应该为,连续分布,均匀分布,指数分布,正态分布,如果连续型随机变量具有如下p=1/(b-a

15、)的概率密度函数,其中Xa,b,则称服从上的均匀分布,指数分布可以用来表示独立随机事件发生的时间间隔,比如指数分布还用来描述大型复杂系统(如计算机)的平均故障间隔时间MTBF的失效分布,正态分布,若随机变量X服从一个数学期望为、方差为2的高斯分布,记为N(,2)。其概率密度函数为正态分布的期望值决定了其位置,其标准差决定了分布的幅度。因其曲线呈钟形,因此人们又经常称之为钟形曲线。我们通常所说的标准正态分布是 = 0, = 1的正态分布,数据分布初步推断,参数检验:数据的分布已知的情况下,对数据分布的参数是否落在相应范围内进行检验,假设检验是数理统计学中根据一定假设条件由样本推断总体的一种方法,

16、可以分为参数检验和非参数检验。,非参数检验:一般是在不知道数据分布的前提下,检验数据的分布情况,总结 1、参数检验是针对参数做的假设,非参数检验是针对总体分布情况做的假设。 2、二者的根本区别在于参数检验要利用到总体的信息,以总体分布和样本信息对总体参数作出推断;非参数检验不需要利用总体的信息。,相关系数是考察变量之间的相关程度的变量,相关分析是优化数据结构的基础,适用 条件,结构优化相关性分析,用于分析的多个变量间可能会存在较多的信息重复,若直接用来分析,会导致模型复杂,同时可能会引起模型较大误差,因此要初步探索数据间的相关性,剔除重复因素。,Spearman秩相关系数,衡量两个变量之间联系(变化趋势)的强弱 在秩(排序)的相对大小基础上得到,对异常值更稳健,Pearson相关系数,衡量两个变量线性相关性的强弱 在方差和协方差的基础上得到的,对异常值敏感,Kendall相关系数,基于协同思想得到,衡量变量之间的协同趋势 对异常值稳健,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号