赞
踩
( 2022 -2023 学年第 1 学期)
信息工程学院 班(年)级 课程 云计算与云存储
题目 | 一 | 二 | 三 | 四 | 五 | … | 总分 |
得分 | |||||||
阅卷人 |
1.OpenStack 是一个由NASA(美国国家航空航天局)和 Rackspace 合作研发并发起的,以 Apache 许可证授权的自由软件和开放源代码项目。openstack 技术属于()架构的实现。(A )
(A)基础设置即服务; (B)平台即服务;
(C)软件即服务; (D)硬件即服务;
2.云端资源只给两个或者两个以上的特定单位组织内的员工使用,除此之外的人和机构都无权租赁和使用云端计算资源,例如,深圳地区的酒店联盟组建的关于酒店方面的云服务,这种云服务属于(B)
(A)私有云; (B)社区云;
(C)公有云; (D)混合云;
3.下列哪个支持将 RDD 数据长久地保存在磁盘文件中进行数据重用 (B)
(A)cache() ; (B)checkpoint();
(C)persist (); (D)memory();
4.软件架构的演变过程很漫长,经历了几十年发展,主要经历了从()的过程。(A)
(A)单体架构-分布式架构-SOA 架构-微服务架构
(B)分布式架构-单体架构-微服务架构- SOA 架构
(C)单体架构-微服务架构-分布式架构-SOA 架构
(D)分布式架构- SOA 架构-单体架构-微服务架构
5.当需要比较多个服务器在不同长度的时间段内的性能时,由于不同组数据的测量尺度相差太大,或者数据量纲的不同,使用()指标可以较好地消除测量尺度和量纲对结果的影响。 ( C)
(A)平均值; (B)方差;
(C)变异系数; (D)标准差;
6.软件系统的高可靠性(也称为可用性,英文描述为 HA,High Available)里有个衡量其可靠性的标准——9 的个数。5 个 9 表示在该软件系统在连续运行 1 年时间里最多可能的业务中断时间是 ( D)
(A)87.6 小时; (B)8.76 小时;
(C)52.6 分钟; (D)5.26 分钟;
7.将键值对 RDD 中具有相同键的元素进行分组,可以使用什么操作: (B)
(A)sortByKey(); (B)groupByKey();
(C)reduceByKey(); (D)keys();
1.Spark 的设计遵循“一个软件需要满足不同应用场景”的理念,逐渐形成了一套完整的生态系统,可以支持以下哪些操作计算: (ABCD)
(A)图计算(GraphX); (B)SQL 即席查询(Spark SQL);
(C)机器学习(MLlib); (D)流式计算(Spark Streaming);
2.spark 的部署模式有: (ABCD)
(A)本地模式; (B)standalone 模式;
(C)spark on yarn 模式; (D)mesos 模式;
窄依赖:是指每个父RDD的一个Partition最多被子RDD的一个Partition所使用,例如map、 filter、union等操作都会产生窄依赖;(独生子女)
宽依赖:是指一个父RDD的Partition会被多个子RDD的Partition所使用,例如groupByKey、 reduceByKey、sortByKey等操作都会产生宽依赖;(超生)
1、Spark Core:包含了 Spark 最核心与基础的功能,为其他 Spark 功能模块提供了核心层 的支撑,可类比 Spring 框架中的 Spring Core。
2、Spark SQL:官方文档的介绍如下图,Spark SQL 适用于结构化表和非结构化数据的查 询,并且可以在运行时自适配执行计划,支持 ANSI SQL(即标准的结构化查询语言)。
3、Spark Streaming:是 Spark 平台上针对实时数据进行流式计算的组件,而流式数据指的 是实时或接近实时的时效性处理的大数据流,常见的流式数据处理使用Spark、Storm和 Samza等框架。
4、Spark MLlib:是 Spark 提供的一个机器学习算法库。MLlib 不仅提供了模型评估、数据 导入等额外的功能,还提供了一些更底层的机器学习原语。
5、Spark GraphX:是 Spark 面向图计算提供的框架与算法库。
1.有一组键值对("Spark",5),("Hadoop",3),("Scala",4),("Spark",3),("Hadoop",1),键值对的 key 表示图书名称,value 表示某天图书的销量,编程计算每个键对应的平均值,即计算每种图书当天的平均销量,将每本图书的平均销量打印到控制台。(10 分)
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
object WordCount {
def main(args: Array[String]): Unit = {
val sparkConf =new SparkConf().setMaster("local").setAppName("WordCount")
val sc= new SparkContext(sparkConf)
val datas: RDD[(String,Int)] = sc.makeRDD(
List(("Spark",5),("Hadoop",3),("Scala",4),("Spark",3),("Hadoop",1)),5)
val a = datas.groupByKey() //按key分组 (张三,CompactBuffer(78, 80, 88))
.map(x => {
var num = 0
var sum = 0
for (i <- x._2) {
sum = sum + i
num = num + 1
}
val avg = sum / num
(x._1, avg)
})
a.collect.foreach(x => println(x._1+"\t"+x._2))
//关闭连接
sc.stop()
}}
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。