当前位置:   article > 正文

云计算复习之Spark(Scala版)期末复习整理_spark编程scala基础期末考试

spark编程scala基础期末考试

声明: 
              1. 本文针对的是一个知识的梳理,自行整理以及方便记忆
              2. 若有错误不当之处, 请指出

Scala是一种针对JVM 将面向函数和面向对象技术组合在一起的编程语言。Scala编程语言近来抓住了很多开发者的眼球。它看起来像是一种纯粹的面向对象编程语言,而又无缝地结合了命令式和函数式的编程风格。

Scala官网6个特征:

1).Java和scala可以混编

2).类型推测(自动推测类型)

3).并发和分布式

4).特质,特征(类似java中interfaces 和 abstract结合)

5).模式匹配(类似java switch)

6).高阶函数
scala有个原则就是极简原则,不用写的东西一概不写。



 

Scala的基本操作具体参考:Scala快速入门(适用于学习Spark)_scala spark-CSDN博客

Spark的特点:快速,易用,通用,随处运行

MapReduce和Spark的对比:

spark是内存计算框架,mapreduce是磁盘计算框架

这张图显而易见,性能高

Spark的生态系统良好,学习起来方便

基本概念与架构

driver作为管家结点,当执行一个Application时,Driver会向集群管理器申请资源,启动Executor,并向Executor发送应用程序代码和文件,然后在Executor上执行Task,运行结束后,执行结果会返回给Driver,或者写到HDFS或者其他数据库中

简述Spark集群的基本运行流程

1)spark集群启动后,Worker向Master注册信息,spark-submit命令提交程序后,driver和application也会向Master注册信息,创建SparkContext对象:主要的对象包含DAGScheduler和TaskScheduler
2)Driver把Application信息注册给Master后,Master会根据App信息去Worker节点启动Executor
3)Executor内部会创建运行task的线程池,然后把启动的Executor反向注册给Dirver
4)DAGScheduler:负责把Spark作业转换成Stage的DAG(Directed Acyclic Graph有向无环图),根据宽窄依赖切分Stage,然后把Stage封装成TaskSet的形式发送个TaskScheduler;同时DAGScheduler还会处理由于Shuffle数据丢失导致的失败;
5)TaskScheduler:维护所有TaskSet,分发Task给各个节点的Executor(根据数据本地化策略分发Task),监控task的运行状态,负责重试失败的task;
6)所有task运行完成后,SparkContext向Master注销,释放资源;

1.为应用构建起基本的运行环境,即由Driver创建一个SparkContext进行资源的申请、任务的分配和监控(SparkContext构建起应用和集群直接的联系,连接集群的通道)

2.资源管理器为Executor分配资源,并启动Executor进程



写入RDD的原因

RDD提供了一组丰富的操作以支持常见的数据运算,分为“动作”(Action)和“”(Transformation)两种类型,RDD提供的转换接口都非常简单,都是类似map、filter、groupBy、join等粗粒度的数据转换操作,而不是针对某个数据项的细粒度修改(不适合网页爬虫)

执行过程

惰性机制,转换记录轨迹,到了动作的时候才会真正的计算

RDD的依赖关系和划分

宽依赖和窄依赖

窄依赖
表现为一个父RDD的分区对应于一个子RDD的分区或多个父RDD的分区对应
于一个子RDD的分区(一对一,多对一)

宽依赖
表现为存在一个父RDD的一个分区对应一个子RDD的多个分区(多对一)

遇到宽依赖断开,遇到窄依赖就把RDD加到阶段中,就可以生成多个阶段。每个阶段包含很多任务,这些阶段派发给各个结点执行

看个例子:

先划分出stage2,然后遇到F到G断开,A-B断开...最终形成

所以RDD的运行流程就是:

(1)创建RDD对象

(2)SparkContext负责计算RDD之间的依赖关系,构建DAG

(3)DAGScheduler负责把DAG图分解成多个Stage每个Stage中包含了多个Task每个Task会被TaskScheduler分发给各个WorkerNode上的Executor去执行

这张图能详细说明spark的核心原理

创建RDD的方式

1.文件系统创建

2.数组的方式创建

看个例子:

从文件系统创建RDD

通过数组读取

通过parallelize生成每个RDD

转换操作

行动操作

行动(Action)操作是真正触发计算的地方。Spark程序执行到行动操作时,才会执行真正的计算,从文件中加载数据,完成一次又一次转换操作,最终,计算得到结果

前两行不会真正执行,只会记录这个行动,第三行reduce操作才会行动,第二行为求每行的长度。

第三行执行的时候会先求每行长度,然后做一个汇总

再来个例子:

切割每行,统计每行单词数,返回最大的

键值对RDD

pairRDD

文件数据读写

1.本地文件读写

把文件写回去

JSON数据读写

SparkSql简介

shark直接从hive里面搬过来的,只有蓝色部分,转换成spark,提升性能

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/568053
推荐阅读
相关标签
  

闽ICP备14008679号