《大数据》教学大纲-20170720.doc

上传人:飞****9 文档编号:127990427 上传时间:2020-04-07 格式:DOC 页数:7 大小:33.31KB
返回 下载 相关 举报
《大数据》教学大纲-20170720.doc_第1页
第1页 / 共7页
《大数据》教学大纲-20170720.doc_第2页
第2页 / 共7页
《大数据》教学大纲-20170720.doc_第3页
第3页 / 共7页
《大数据》教学大纲-20170720.doc_第4页
第4页 / 共7页
《大数据》教学大纲-20170720.doc_第5页
第5页 / 共7页
点击查看更多>>
资源描述

《《大数据》教学大纲-20170720.doc》由会员分享,可在线阅读,更多相关《《大数据》教学大纲-20170720.doc(7页珍藏版)》请在金锄头文库上搜索。

1、大数据课程教学大纲适合专业: 数据科学与大数据技术专业 课程编号: 先修课程: 高等数据、线性代数、JAVA 学分: 4 总学时: 64 一、课程性质、目的与要求课程性质:专业必修课。课程目的:通过对大数据的相关知识介绍,使学生掌握大数据的概念和原理,熟悉大数据的理论与算法,了解大数据未来发展趋势,能够利用所学知识,进行大数据应用实现和算法设计,培养学生运用大数据技术解决大数据行业应用问题。课程要求:本课程系统介绍了大数据的理论知识和实战应用,包括大数据概念与应用、数据采集与预处理、数据挖掘算法与工具、R语言、深度学习以及大数据可视化等,并深度剖析了大数据在互联网、商业和典型行业的应用。期望学

2、生对大数据处理技术有比较深入的理解,能够从具体问题或实例入手,利用所学的大数据知识在应用中实现数据分析和数据挖掘。二、教学内容理论总学时:36学时第1章 大数据概念与应用 2学时基本要求:熟悉大数据的概念与意义、大数据的来源、大数据应用场景及大数据处理方法等内容。重点:大数据的定义、研究内容与应用。难点:无。第2章 数据采集与预处理 4学时基本要求:熟悉常用的大数据采集工具,特别是Apache Kafka数据采集使用方法;熟悉数据预处理原理和方法,包括数据清洗、数据集合、数据转换;掌握数据仓库概念与ETL工具Kettle的实际应用。重点:Apache Kafka数据采集、数据清洗、数据仓库与E

3、TL工具。难点:ETL工具Kettle的实际应用。第3章 数据挖掘算法 6学时基本要求:熟悉常用的数据挖掘算法,内容上从分类、聚类、关联规则和预测模型等数据挖掘常用分析方法出发掌握相对应的算法,并能熟练进行数据挖掘算法的综合应用。重点:分类算法、聚类算法、关联规则、时间序列预测。难点:数据挖掘算法的综合应用。第4章 大数据挖掘工具 4学时基本要求:熟练掌握机器学习系统Mahout和大数据挖掘工具Spark Mllib下的分类算法、聚类算法、协同过滤算法的使用,并对其他数据挖掘工具有所了解。重点:Mahout安装与使用、Spark Mllib工具的使用。难点:Mahout和Spark Mllib

4、工具的使用。第5章 R语言 4学时基本要求:了解R语言的发展历程、功能和应用领域;熟悉R语言在数据挖掘中的应用;掌握R语言在分布式并行实时计算环境Spark中的应用SparkR。重点:R语言基本功能、R语言在数据挖掘中的应用、SparkR主要机器学习算法。难点:R语言与数据挖掘。第6章 深度学习 4学时基本要求:了解深度学习的发展过程和实际应用场景,并结合人脑的工作原理,理解深度学习的相关概念和工作机制,做到能够熟练使用常用的深度学习软件。重点:人脑神经系统与深度学习、卷积神经网络、深度置信网络、循环(递归)神经网络、TensorFlow和Caffe。难点:人工神经网络。第7章 大数据可视化

5、4学时基本要求:熟悉大数据可视化的基础知识;掌握文本可视化、网络可视化、时空数据可视化、多维数据可视化等常用的大数据可视化方法,可通过Excel、Processing、NodeXL和ECharts软件实现数据的可视化。重点:数据可视化流程、大数据可视化方法、大数据可视化软件与工具。难点:时空数据可视化、多维数据可视化。第8章 互联网大数据处理 4学时基本要求:掌握互联网信息抓取技术,能够通过互联网信息抓取、文本分词、倒排索引与网页排序这4个主要步骤实现互联网大数据处理,并能够熟练运用。重点:Nutch爬虫、文本分词、倒排索引、网页排序。难点:倒排索引。第9章 大数据商业应用 2学时基本要求:熟

6、悉用户画像和精准营销的构建;熟悉广告推荐系统的建设;熟悉互联网金融的应用方法。重点:用户画像构建流程、用户标签、广告推荐、互联网金融应用方向。难点:信用评分算法、分类模型的性能评估。第10章 行业大数据 2学时基本要求:以地震大数据、交通大数据、环境大数据和警务大数据为例来熟悉行业大数据的应用,学会利用数据创造价值。重点:理解数据和数据分析在业务活动中的具体表现。难点:无。三、实践教学要求实践总学时:28学时序号实验项目名称实验类型实验要求实验内容简介基本要求学时分配1Apache Kafka数据采集工具验证必做在CentOS 7操作系统环境下,设置大于4GB的交换空间,进行Apache Ka

7、fka的安装和使用。该实验可以在大数据实验平台上开展。熟练掌握22数据挖掘算法应用设计必做做实验前需要老师上传实验输入数据,明确实验目的与要求,指导学生完成数据挖掘算法的综合运用实验。该实验可以在大数据实验平台上开展。熟练掌握43Mahout应用必做安装Linux操作系统和Hadoop平台后完成Mahout的部署,并上传实验输入数据,完成分类算法、聚类算法、协同过滤算法的应用。该实验可以在大数据实验平台上开展。熟练掌握24Spark MLlib应用必做在Spark环境中,运用Spark Mllib工具中实现分类算法、聚类算法、协同过滤算法的应用。该实验可以在大数据实验平台上开展。熟练掌握25C

8、ifar-10目标识别应用必做运用Caffe框架获取Cifar-10数据集,将训练数据集转化为训练需要的格式,将训练集送入网络训练,得到最终的识别模型,识别数据集的10类目标物体。该实验可以在深度学习一体机上开展。熟练掌握26MNIST手写体数字识别项目应用必做利用caffe框架获得MNIST手写体数字数据集和LeNeT网络描述文件,将原始数据转化为训练数据输入网络,经过不断的迭代得到最终网络模型,利用模型可以识别出和同类型的手写体数字。该实验可以在深度学习一体机上开展。熟练掌握27搜索引擎设计必做先从网页中扒取部分数据信息,然后从这些信息中提取去我们所需要的几项数据,将其存储在HBase中。

9、然后我们可以通过关键词搜索从HBase中将这些数据根据我们的关键词提取出来。该实验可以在大数据实验平台上开展。熟练掌握48推荐系统设计必做根据数据集利用Spark进行训练,得到一个最佳推荐模型,并用实际数据和平均值这两方面评价该模型的准确度。该实验可以在大数据实验平台上开展。熟练掌握49个人贷款风险评估应用必做通过提取贷款用户相关特征,使用Spark MLlib构建风险评估模型,使用逻辑回归算法将用户分为高风险、低风险两种风险等级,此分类结果可作为银行放贷的参考依据。该实验可以在大数据实验平台上开展。熟练掌握210环境大数据设计必做选取北京2016年1月到6月这半年间的每小时天气和空气质量数据

10、,要求每位学生在client服务器上运行这些数据,从中分析出的环境统计结果,包含月平均气温、空气质量分布情况等。该实验可以在大数据实验平台上开展。熟练掌握4注:1、实验类型:演示、验证、综合、设计、研究。2、实验要求:必做、选做。四、课时分配序号章节内容理论环节时数实验时数1第1章大数据概念与应用22第2章数据采集与预处理423第3章数据挖掘算法644第4章大数据挖掘工具445第5章R语言46第6章深度学习447第7章大数据可视化48第8章互联网大数据处理449第9章大数据商业应用2610第10章行业大数据24合计:3628总学分4总学时64五、建议教材与教学参考书序号书名编者出版社版本1大数据刘鹏电子工业出版社12云计算刘鹏电子工业出版社33大数据库刘鹏电子工业出版社14大数据实验手册刘鹏电子工业出版社15实战Hadoop2.0从云计算到大数据叶晓江、刘鹏电子工业出版社2六、教学形式与考核方式教学形式:本课程采用课堂讲授、分析和实践教学等手段开展教学活动。考核方式:本课程采用平时考察与期末闭卷考试相结合的考核方法。平时考察主要考察课堂表现、作业完成情况,平时成绩占30%(课堂表现及考勤占5%,作业占25%)。期末考试主要采用闭卷考试的方式。命题要求覆盖大纲重点内容,题型不少于四种,难易程度适中。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 中学教育 > 教学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号