当前位置:   article > 正文

Spark面试重点

Spark面试重点

1. Spark VS Hadoop区别?

在这里插入图片描述

2. Hadoop的基于进程的计算和Spark基于线程方式优缺点?

Hadoop中的MR中每个map/reduce task都是一个java进程方式运行,好处在于进程之间是互相独立的,每个task独享进程资源,没有互相干扰,监控方便,但是问题在于task之间不方便共享数据,执行效率比较低。比如多个map task读取不同数据源文件需要将数据源加载到每个map task中,造成重复加载和浪费内存。而基于线程的方式计算是为了数据共享和提高执行效率,Spark采用了线程的最小的执行单位,但缺点是线程之间会有资源竞争

3. Spark四大特点

  • 速度快
  • 易于使用
  • 通用性强
  • 支持多种运行方式

4. Spark的架构角色

在这里插入图片描述

5. Spark运行模式

  1. Local模式

    • Local模式可以限制模拟Spark集群环境的线程数量, 即Local[N] 或Local[*]
    • 其中N代表可以使用N个线程,每个线程拥有一个cpu core。如果不指定N,则默认是1个线程(该线程有1个core)。通常Cpu有几个Core,就指定几个线程,最大化利用计算能力。
  2. Standalone模式

    StandAlone 是完整的Spark运行环境,其中:

    • Master角色以Master进程存在, Worker角色以Worker进程存在
    • Driver和Executor运行于Worker进程内, 由Worker提供资源供给它们运行
      在这里插入图片描述
  3. SparkOnYarn模式

  • Master角色由YARN的ResourceManager担任
  • Worker角色由YARN的NodeManager担任
  • Driver角色运行在YARN容器内或提交任务的客户端进程中
  • 真正干活的Executor运行在YARN提供的容器内
    在这里插入图片描述
    【注】Spark On YARN是有两种运行模式的,一种是Cluster模式一种是Client模式
    Cluster模式即:Driver运行在YARN容器内部, 和ApplicationMaster在同一个容器内
    Client模式即:Driver运行在客户端进程中, 比如Driver运行在spark-submit程序的进程中

6. Job\State\Task的关系?

一个Spark程序会被分成多个子任务(Job)运行, 每一个Job会分成多个State(阶段)来
运行, 每一个State内会分出来多个Task(线程)来执行具体任务

7. Python On Spark 执行原理

PySpark宗旨是在不破坏Spark已有的运行时架构,在Spark架构外层包装一层Python API,借助Py4j实现Python和Java的交互,进而实现通过Python编写Spark应用程序,其运行时架构如下图所示。
在这里插入图片描述

8. RDD

8.1 什么是RDD?

RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象,代表一个不可变、可分区、里面的元素可并行计算的集合。

Resilient:RDD中的数据可以存储在内存中或者磁盘中

8.2 RDD的特性

  • RDD是有分区的,RDD的分区是RDD数据存储的最小单位
  • RDD的方法会作用在其所有的分区上
  • RDD之间是有依赖关系(RDD有血缘关系)

9. RDD算子

9.1 算子是什么?

分布式对象的API,叫做算子

9.2 算子分类

  1. Transformation:转换算子
    定义:RDD的算子,返回值仍旧是一个RDD的,称之为转换算子
    特性:这类算子是lazy 懒加载的。如果没有action算子,Transformation算子是不工作的

  2. Action:行动算子

    定义:返回值不是rdd的就是action算子
    在这里插入图片描述

9.3 Spark 的转换算子 (8 个)

9.4 Spark 的行动算子 (5 个)

10. groupByKey和reduceByKey的区别

在这里插入图片描述
groupByKey执行流程:
在这里插入图片描述
reduceByKey执行流程:
在这里插入图片描述

11. 宽窄依赖

在这里插入图片描述

12. Spark是怎么做内存计算的?DAG的作用?Stage阶段划分的作用?

在这里插入图片描述
Spark执行流程:
在这里插入图片描述

13. Spark为什么比Mapreduce快?

  • Spark算子丰富,Map reduce算子匮乏,Mapreduce很难处理复杂的任务,要想解决复杂的任务,需要写多个MapReduce程序进行串联,多个MR串联通过磁盘交互数据
  • Spark可以执行内存迭代,算子之间形成DAG并基于依赖划分阶段后,在阶段内形成内存迭代管道。但是MapReduce的Map和Reduce之间的交互依旧是通过磁盘来交互的

14. Spark Shuffle

DAG中的宽依赖就是Spark中的Shuffle过程
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/400387
推荐阅读
相关标签
  

闽ICP备14008679号