超前自学网

 找回密码
 立即注册

奥鹏在线作业,2元一门,先做后付,微信424329

查看: 128|回复: 0

20春学期(1709、1803、1809、1903、1909、2003)《大数据开发技术(二)》在线作业

[复制链接]

3万

主题

3万

帖子

9万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
95816
发表于 2020-10-30 12:58:42 | 显示全部楼层 |阅读模式
微信公众号:超前自学网
点击这里

Scala中合并两个数组的方法是()
A:line
B:add
C:append
D:concat

以下哪个函数可以对RDD进行排序()
A:sortBy
B:filter
C:distinct
D:intersection

Graph类中如果要直接通过边数据文件创建图,要求数据按空格分隔,应该用()方法
A:Graph(vertices,edges, defaultVertexAttr)
B:Graph.fromEdges(RDD[Edge[ED]], defaultValue)
C:Graph.fromEdgeTuples(rawEdges: RDD[(VertexId, VertexId)], defaultValue,)
D:GraphLoader.edgeListFile(sc,filename)

下列Scala代码应输出():
var a=0;
var b=0
var sum=0;
for(alt;-1 until 3; blt;-1 until 3) {
  sum =a b;
}
println(sum);
A:36
B:35
C:11
D:12

GraphX中()是提供顶点的各种操作方法的对象
A:RDD[Edge]
B:EdgeRDD
C:RDD[(VertexId,VD)]
D:VertexRDD

Scala列表方法中返回所有元素,除了最后一个的方法是()
A:drop
B:head
C:filter
D:init

Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。
A:print
B:saveAsTextFiles
C:saveAsObjectFiles
D:saveAsHadoopFiles

()是Spark的核心,提供底层框架及核心支持
A:Spark Core
B:Spark SQL
C:Spark Streaming
D:Mllib

如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()
A:[0,numPartitions]
B:[0,numPartitions-1]
C:[1,numPartitions-1]
D:[1,numPartitions]

PairRDD中()函数可以对具有相同键的值进行分组
A:mapValues
B:groupBy
C:groupByKey
D:reduceByKey

GraphX中()方法可以缓存整个图,并指定存储级别
A:cache
B:presist
C:unpersistVertices
D:edges.unpersist

当需要将一个普通的RDD转化为一个PairRDD时可以使用()函数来进行操作
A:transfer
B:change
C:map
D:build

Dstream窗口操作中()方法基于滑动窗口对(K,V)键值对类型的DStream中的值按K使用聚合函数func进行聚合操作,得到一个新的Dstream
A:window
B:countByWindow
C:reduceByWindow
D:reduceByKeyAndWindow

spark-submit配置项中()表示executor使用的总核数
A:--num-executors NUM
B:--executor-memory MEM
C:--total-executor-cores NUM
D:--executor-coures NUM

图结构中如果任意两个顶点之间都存在边,那么称之为()
A:完全图
B:有向完全图
C:无向图
D:简单图

以下哪个函数可以求两个RDD的笛卡尔积()
A:union
B:substract
C:intersection
D:cartesian

Scala类通过子类化和基于灵活的混合类来进行扩展,作为##的一个可靠性解决方案
A:多态
B:虚函数
C:派生
D:多重继承

MLlib 中可以调用mllib.tree.DecisionTree 类中的静态方法()训练分类树
A:trainClassifier
B:trainRegressor
C:LogisticRegressionModel
D:LabeledPoint

以下哪个不是Scala的数据类型()
A:Int
B:Short Int
C:Long
D:Any

Mllib中metrics.precisionByThreshold表示()指标
A:准确度
B:召回率
C:F值
D:ROC曲线

PairRDD可以通过()获得仅包含键的RDD
A:key
B:keys
C:value
D:values

RDD的()操作通常用来划分单词
A:filter
B:union
C:flatmap
D:mapPartitions

请问RDD的()操作作用于K-V类型的RDD上,返回指定K的所有V值
A:search
B:find
C:findByKey
D:lookup

图的结构通常表示为:G(V,E),其中,V是图G中()
A:顶点
B:顶点的集合
C:边
D:边的集合

一般情况下,对于迭代次数较多的应用程序,Spark程序在内存中的运行速度是Hadoop MapReduce运行速度的()多倍
A:2
B:10
C:100
D:1000

PairRDD中()函数可以进行分组
A:mapValues
B:groupBy
C:groupByKey
D:reduceByKey

Spark创建DataFrame对象方式有()
A:结构化数据文件
B:外部数据库
C:RDD
D:Hive中的表

Spark DataFrame中()方法可以返回一个Array对象
A:collect
B:take
C:takeAsList
D:collectAsList

Spark Core包含的功能有()
A:任务调度
B:内存管理
C:SQL查询
D:容错机制

Spark Streaming能够和()无缝集成
A:Hadoop
B:Spark SQL
C:Mllib
D:GraphX

以下是机器学习的常用算法的是()
A:回归算法
B:聚类算法
C:降维算法
D:分类算法

Scala支持()
A:匿名函数
B:高阶函数
C:函数嵌套
D:柯里化

Spark中DataFrame的()方法是查询指定字段的数据信息
A:select
B:selectExpr
C:col
D:apply

Spark可以通过哪些外部存储创建RDD()
A:文本文件
B:目录
C:压缩文件
D:通配符匹配的文件

Scala中使用() 方法来连接两个集合
A:append
B:  
C:concat
D:Set.  ()

Scala可以通过“val” 来定义变量,通过“var” 关键字来定义常量
A:对
B:错

Scala中列表是可变的
A:对
B:错

MLlib由一些通用的学习算法和工具组成,包括分类、回归、聚类、协同过滤、降维等,同时还包括底层的优化原语和高层的管道API。
A:对
B:错

RDD的union函数会将两个RDD元素合并成一个并且去处重复元素
A:对
B:错

聚类是一种无监督学习的方法,用于将高度相似的数据分到一类中
A:对
B:错

Spark SQL包括基本的SQL语法和HiveQL语法
A:对
B:错

Scala函数组合器中flatten可以把嵌套的结构展开
A:对
B:错

Scala中默认情况下使用的是可变的Map
A:对
B:错

Scala在子类中重写超类的抽象方法时,需要使用override关键字
A:对
B:错

Scala是Scalable Language的简写,是一门多范式的编程语言,设计初衷是不包括函数式编程的特性。
A:对
B:错

Scala 语言中提供的数组是用来存储动态大小的同类型元素
A:对
B:错

RDD的行动操作通过某种函数将一个RDD 转换为一个新的RDD , 但是转换操作是懒操作,不会立刻执行计算。
A:对
B:错

Scala调用匿名函数可以将函数赋值给一个常量或变量,然后通过常量名或变量名调用该函数
A:对
B:错

Scala中允许集成多个父类
A:对
B:错

val如同Java里面的非final变量,可以在它的声明周期中被多次赋值。
A:对
B:错

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|超前自学网 ( 皖ICP备20014425号-1 )|网站地图

GMT+8, 2025-5-1 07:25

Powered by Discuz! X3.4

© 2001-2013 Comsenz Inc.. 技术支持 by 巅峰设计

快速回复 返回顶部 返回列表