|

Scala中合并两个数组的方法是()
A:line
B:add
C:append
D:concat
以下哪个函数可以对RDD进行排序()
A:sortBy
B:filter
C:distinct
D:intersection
Graph类中如果要直接通过边数据文件创建图,要求数据按空格分隔,应该用()方法
A:Graph(vertices,edges, defaultVertexAttr)
B:Graph.fromEdges(RDD[Edge[ED]], defaultValue)
C:Graph.fromEdgeTuples(rawEdges: RDD[(VertexId, VertexId)], defaultValue,)
D:GraphLoader.edgeListFile(sc,filename)
下列Scala代码应输出():
var a=0;
var b=0
var sum=0;
for(alt;-1 until 3; blt;-1 until 3) {
sum =a b;
}
println(sum);
A:36
B:35
C:11
D:12
GraphX中()是提供顶点的各种操作方法的对象
A:RDD[Edge]
B:EdgeRDD
C:RDD[(VertexId,VD)]
D:VertexRDD
Scala列表方法中返回所有元素,除了最后一个的方法是()
A:drop
B:head
C:filter
D:init
Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。
A:print
B:saveAsTextFiles
C:saveAsObjectFiles
D:saveAsHadoopFiles
()是Spark的核心,提供底层框架及核心支持
A:Spark Core
B:Spark SQL
C:Spark Streaming
D:Mllib
如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()
A:[0,numPartitions]
B:[0,numPartitions-1]
C:[1,numPartitions-1]
D:[1,numPartitions]
PairRDD中()函数可以对具有相同键的值进行分组
A:mapValues
B:groupBy
C:groupByKey
D:reduceByKey
GraphX中()方法可以缓存整个图,并指定存储级别
A:cache
B:presist
C:unpersistVertices
D:edges.unpersist
当需要将一个普通的RDD转化为一个PairRDD时可以使用()函数来进行操作
A:transfer
B:change
C:map
D:build
Dstream窗口操作中()方法基于滑动窗口对(K,V)键值对类型的DStream中的值按K使用聚合函数func进行聚合操作,得到一个新的Dstream
A:window
B:countByWindow
C:reduceByWindow
D:reduceByKeyAndWindow
spark-submit配置项中()表示executor使用的总核数
A:--num-executors NUM
B:--executor-memory MEM
C:--total-executor-cores NUM
D:--executor-coures NUM
图结构中如果任意两个顶点之间都存在边,那么称之为()
A:完全图
B:有向完全图
C:无向图
D:简单图
以下哪个函数可以求两个RDD的笛卡尔积()
A:union
B:substract
C:intersection
D:cartesian
Scala类通过子类化和基于灵活的混合类来进行扩展,作为##的一个可靠性解决方案
A:多态
B:虚函数
C:派生
D:多重继承
MLlib 中可以调用mllib.tree.DecisionTree 类中的静态方法()训练分类树
A:trainClassifier
B:trainRegressor
C:LogisticRegressionModel
D:LabeledPoint
以下哪个不是Scala的数据类型()
A:Int
B:Short Int
C:Long
D:Any
Mllib中metrics.precisionByThreshold表示()指标
A:准确度
B:召回率
C:F值
D:ROC曲线
PairRDD可以通过()获得仅包含键的RDD
A:key
B:keys
C:value
D:values
RDD的()操作通常用来划分单词
A:filter
B:union
C:flatmap
D:mapPartitions
请问RDD的()操作作用于K-V类型的RDD上,返回指定K的所有V值
A:search
B:find
C:findByKey
D:lookup
图的结构通常表示为:G(V,E),其中,V是图G中()
A:顶点
B:顶点的集合
C:边
D:边的集合
一般情况下,对于迭代次数较多的应用程序,Spark程序在内存中的运行速度是Hadoop MapReduce运行速度的()多倍
A:2
B:10
C:100
D:1000
PairRDD中()函数可以进行分组
A:mapValues
B:groupBy
C:groupByKey
D:reduceByKey
Spark创建DataFrame对象方式有()
A:结构化数据文件
B:外部数据库
C:RDD
D:Hive中的表
Spark DataFrame中()方法可以返回一个Array对象
A:collect
B:take
C:takeAsList
D:collectAsList
Spark Core包含的功能有()
A:任务调度
B:内存管理
C:SQL查询
D:容错机制
Spark Streaming能够和()无缝集成
A:Hadoop
B:Spark SQL
C:Mllib
D:GraphX
以下是机器学习的常用算法的是()
A:回归算法
B:聚类算法
C:降维算法
D:分类算法
Scala支持()
A:匿名函数
B:高阶函数
C:函数嵌套
D:柯里化
Spark中DataFrame的()方法是查询指定字段的数据信息
A:select
B:selectExpr
C:col
D:apply
Spark可以通过哪些外部存储创建RDD()
A:文本文件
B:目录
C:压缩文件
D:通配符匹配的文件
Scala中使用() 方法来连接两个集合
A:append
B:
C:concat
D:Set. ()
Scala可以通过“val” 来定义变量,通过“var” 关键字来定义常量
A:对
B:错
Scala中列表是可变的
A:对
B:错
MLlib由一些通用的学习算法和工具组成,包括分类、回归、聚类、协同过滤、降维等,同时还包括底层的优化原语和高层的管道API。
A:对
B:错
RDD的union函数会将两个RDD元素合并成一个并且去处重复元素
A:对
B:错
聚类是一种无监督学习的方法,用于将高度相似的数据分到一类中
A:对
B:错
Spark SQL包括基本的SQL语法和HiveQL语法
A:对
B:错
Scala函数组合器中flatten可以把嵌套的结构展开
A:对
B:错
Scala中默认情况下使用的是可变的Map
A:对
B:错
Scala在子类中重写超类的抽象方法时,需要使用override关键字
A:对
B:错
Scala是Scalable Language的简写,是一门多范式的编程语言,设计初衷是不包括函数式编程的特性。
A:对
B:错
Scala 语言中提供的数组是用来存储动态大小的同类型元素
A:对
B:错
RDD的行动操作通过某种函数将一个RDD 转换为一个新的RDD , 但是转换操作是懒操作,不会立刻执行计算。
A:对
B:错
Scala调用匿名函数可以将函数赋值给一个常量或变量,然后通过常量名或变量名调用该函数
A:对
B:错
Scala中允许集成多个父类
A:对
B:错
val如同Java里面的非final变量,可以在它的声明周期中被多次赋值。
A:对
B:错
|
|