21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业2

上传人:奥鹏****师 文档编号:186743151 上传时间:2021-07-20 格式:DOC 页数:8 大小:16.40KB
返回 下载 相关 举报
21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业2_第1页
第1页 / 共8页
21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业2_第2页
第2页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业2》由会员分享,可在线阅读,更多相关《21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业2(8页珍藏版)》请在金锄头文库上搜索。

1、21春学期(1709、1803、1809、1903、1909、2003、2009、2103)大数据开发技术(二)在线作业21.Spark Streming中()函数可以合并两个DStream,生成一个包含两个DStream中所有元素的新DStream对象A.mapB.flatMapC.filterD.union【参考答案】: D2.请问RDD的()操作用于将相同键的数据聚合A.joinB.zipC.combineByKeyD.collect【参考答案】: C3.Dstream窗口操作中()方法基于滑动窗口对源DStream中的元素进行聚合操作,得到一个新的DstreamA.windowB.co

2、untByWindowC.reduceByWindowD.reduceByKeyAndWindow【参考答案】: C4.Scala函数组合器可以接收一个可以处理嵌套列表的函数,然后把返回结果连接起来的方法是()A.mapB.foreachC.flattenD.flatmap【参考答案】: D5.GraphX中()方法可以查询边信息A.numVerticesB.numEdgesC.verticesD.edges【参考答案】: D6.Spark Streming中()函数可以对源DStream中的每一个元素应用func方法进行计算,如果func函数返回结果为true,则保留该元素,否则丢弃该元素,

3、返回一个新的DstreamA.mapB.flatMapC.filterD.union【参考答案】: C7.GraphX中()方法可以查询顶点个数A.numVerticesB.numEdgesC.verticesD.edges【参考答案】: A8.PairRDD可以通过()获得仅包含键的RDDA.keyB.keysC.valueD.values【参考答案】: B9.Spark GraphX中类Graph的mask方法可以()A.反转图中所有边的方向B.按照设定条件取出子图C.取两个图的公共顶点和边作为新图,并保持前一个图顶点与边的属性D.合并边相同的属性【参考答案】: C10.var a=10;

4、 for(a-1 until 20) println(a); 共循环了()次A.10B.11C.20D.19【参考答案】: D11.Scala中合并两个数组的方法是()A.lineB.addC.appendD.concat【参考答案】: D12.Mllib中线性会馆算法中的参数intercept表示()A.要运行的迭代次数B.梯度下降的步长C.是否给数据加干扰特征或者偏差特征D.Lasso 和ridge 的正规化参数【参考答案】: C13.以下哪个函数可以对RDD进行去重()A.sortByB.filterC.distinctD.intersection【参考答案】: C14.GraphX中(

5、)方法可以查询度数A.degreesB.degreeC.verticesD.edges【参考答案】: A15.GraphX中()是存放着Edg对象的RDDA.RDDEdgeB.EdgeRDDC.RDD(VertexId,VD)D.VertexRDD【参考答案】: A16.Scala函数组合器可以过滤移除使得传入的函数的返回值为false的元素的方法是()A.filterB.flattenC.groubyD.flatmap【参考答案】: A17.var a=10; do a+=1; while(a20) 共循环了()次A.9B.10C.11D.12【参考答案】: B18.Spark GraphX

6、中类Graph的joinVertices方法可以()A.收集邻居顶点的顶点Id和顶点属性B.收集邻居顶点的顶点IdC.向指定顶点发送信息并聚合信息D.将顶点信息更新到图中【参考答案】: D19.Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。A.printB.saveAsTextFilesC.saveAsObjectFilesD.saveAsHadoopFiles【参考答案】: C20.Scala函数组合器可以通过一个函数重新计算列表中所有元素,并且返回一个相同数目元素的新列表的方法是()A.mapB.foreachC.flattenD.flatmap

7、【参考答案】: A21.spark-submit配置项中()表示启动的executor数量A.-num-executors NUMB.-executor-memory MEMC.-total-executor-cores NUMD.-executor-coures NUM【参考答案】: A22.Spark中运行交互式SQL查询的大规模并行查询引擎是()A.Spark CoreB.Spark SQLC.BlinkDBD.Mllib【参考答案】: C23.以下哪个函数可以求两个RDD的笛卡尔积()A.unionB.substractC.intersectionD.cartesian【参考答案】:

8、D24.Scala源代码被编译成()字节码,所以它可以运行于JVM之上A.SparkB.ScalaC.JavaD.JDK【参考答案】: C25.Spark GraphX中类Graph的aggregateMessages方法可以()A.收集邻居顶点的顶点Id和顶点属性B.收集邻居顶点的顶点IdC.向指定顶点发送信息并聚合信息D.将顶点信息更新到图中【参考答案】: C26.以下哪个方法可以创建RDD()A.parallelizeB.makeRDDC.textFileD.loadFile【参考答案】: ABC27.Spark DataFrame中()方法可以返回一个Array对象A.collectB

9、.takeC.takeAsListD.collectAsList【参考答案】: AB28.PairRDD中()函数可以进行分组A.mapValuesB.groupByC.groupByKeyD.reduceByKey【参考答案】: BC29.MLBase包括()A.MllibB.MLIC.SparkRD.GraphX【参考答案】: AB30.决策树是()的常用算法A.分类B.聚类C.降维D.回归【参考答案】: AD31.Spark的RDD持久化操作有()方式A.cacheB.presistC.storageD.long【参考答案】: AB32.Scala中可以用()方法来连接两个或多个列表A.

10、:B.#:C.List.:()D.List.concat()【参考答案】: ABCD33.Spark是一个()计算框架A.快速B.分布式C.可扩展D.容错【参考答案】: ABCD34.Spark可以从()分布式文件系统中读取数据A.HDFSB.HbaseC.HiveD.Tachyon【参考答案】: ABCD35.Spark中DataFrame的()方法是查询指定字段的数据信息A.selectB.selectExprC.colD.apply【参考答案】: ABCD36.Scala函数组合器中flatmap结合了map和flatten的功能,接收一个可以处理嵌套列表的函数,然后把返回结果连接起来T

11、.对F.错【参考答案】: T37.DataFrame是一个分布式的Row对象的数据集合T.对F.错【参考答案】: T38.Scala列表中last返回一个列表,包含除了第一个元素之外的其他元素T.对F.错【参考答案】: F39.Spark Streaming中时间片也可称为批处理时间间隔(batch interval),时间片是人为地对数据进行定量的标准,作为拆分数据的依据,一个时间片的数据对应一个RDD 实例。T.对F.错【参考答案】: T40.PairRDD中mapValues是针对键值对(Key,Value)类型的数据中的key和Value进行Map操作T.对F.错【参考答案】: F41

12、.RDD的subtract用于用于将前一个RDD 中在后一个RDD 出现的元素删除T.对F.错【参考答案】: T42.RDD中join操作最后只返回两个RDD 都存在的键的连接结果。T.对F.错【参考答案】: T43.RDD的filter函数返回一个存储符合过滤条件的所有元素的新RDDT.对F.错【参考答案】: T44.Scala中数组的第一个元素索引为1T.对F.错【参考答案】: F45.RDD的行动操作是用于触发转换操作的操作,这个时候才会真正开始进行计算。T.对F.错【参考答案】: T46.Spark中DataFrame 的查询操作也是一个懒操作, 仅仅生成一个查询计划, 只有触发Action 操作才会进行计算并返回查询结果。T.对F.错【参考答案】: T47.RDD的mapPartitions操作会导致Partitions数量的变化T.对F.错【参考答案】: F48.Scala函数组合器中foreach和map类似,有返回值T.对F.错【参考答案】: F49.用户可以在Hadoop YARN上运行SparkT.对F.错【参考答案】: T50.Spark持久化RDD 后,在再一次需要计算该RDD 时将需要重新计算T.对F.错【参考答案】: F

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 习题/试题

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号