赞
踩
Spark快速大数据分析 前3章内容,仅作为学习,有断章取义的嫌疑。如有问题参考原书
以下为了打字方便,可能不是在注意大小写
Spark是一个用来实现快速而通用的集群计算的平台。
在速度方面,Spark扩展了广泛使用的MapReduce计算模型,而且高效地支持更多计算模式,包括交互式查询和流处理。在处理大规模数据集事,速度是非常重要的。速度就以为这我们可以进行交互式的数据操作,否则我们每次操作就需要等待数分钟甚至数小时。Spark的一个主要特征就是能够在内存中计算,因而更快。不过即便是必须在磁盘上进行复杂计算,也比MapReduce更加高效。
总的来说,Spark使用各种各样原先需要多种不同的分布式平台的场景,包括批处理、迭代算法、交互式查询、流处理。通过在一个统一的框架下支持这些不同的计算,Spark使我们可以简单而低耗地把各种处理流程整合在一起。。而这样的组合,在实际的数据分析过程中很有意义。不仅如此,Spark的这种特性还大大减轻了原先需要对各种平台分别管理的负担。
Spark所提供的接口非常丰富。除了提供基与Python,Java、Scala和SQL的简单易用的API以及内建的丰富程序库以外,spark还能和其他大数据工具密切配合使用。
Spark项目包含多个紧密集成的组件。Spark的核心是一个对由很多计算任务组成的、运行在多个机器或者一个计算集群上的应用进行调度、分布以及监控的计算引擎。由于Spark的核心引擎有着速度快和通用的特点,因此Spark还支持为各种不同场景专用设计的高级组件,比如SQL和机器学习等。这些组件关系密切并且可以相互调用,这样你就可以像平常软件项目中使用程序那样,组合使用这些的组件。
各组件密切结合的设计原理有这样几个有点。首先,软件栈中所有程序库和高级组件都可以从下层的改进中获益。比如,当Spark的核心引擎新引入一个优化时,SQL和机器学习程序库都能自动获得性能提升。其次,运行整个软件栈的代价变小了。不需要运行5到10套独立的软件系统了,一个机构只需要运行一套软件系统即可。这些代价包括系统的部署、维护、测试、支持等。这也意味着Spark软件栈中每增加一个新的组件,使用spark的机构都能马上试用新加入的组件。这就把原先尝试一种新的数据分析系统所需要的下载、部署并学习一个新软件项目的代价转化为了只需要升级spark。
最后。密切结合的原理的一大优点就是,我们能够构建出无缝整合不同处理模型的应用。例如,利用spark,你可以在一个应用中实现将数据流中数据使用机器学习算法进行实时分类。与此同时,数据分析师也可以通过SQL实时查询结果数据,比如将数据与非结构化的日志文件进行连写操作。不仅如此,有经验的数据工程师和数据科学家还可以通过Python shell 来访问这些数据,进行及时分析。其他人也可以通过独立的批处理应用访问这些数据。IT团队始终只需要维护一套系统即可。
spark core实现了spark的基本功能,包含了任务调度、内存管理、错误恢复、与储存系统交互等模块。它还包含了对弹性分布式数据集(简称RDD)的API定义。RDD表示分布在多个计算节点上可以并行操作的元素集合,是Spark主要的编程抽象。Spark core 提供了创建和操作这些集合的多个API。
Spark SQL 是 spark用来操作机构化数据的程序包。通过spark sql,我们可以使用sql或者 hive 来查询数据,spark SQL支持多种数据源,比如hive parquet以及json等。除了spark提供了一个sql接口,spark sql还支持开发者将SQL和传统的RDD编程的数据操作方式结合,不论是使用Python、Java还是Scala,开发者都可以讲单个应用中同时使用SQL和复杂的数据分析。通过与spark所提供的丰富的计算环境进行如此紧密的结合,spark sql得以从其他开源数据仓库工具中脱颖而出。
spark streaming 是spark提供的对实时数据进行流式计算的组件。比如生产环境中的网页服务器日志,或是网络服务中用户提交的状态更新组成的消息队列。都是数据流。spark streaming提供了用来操作数据流的API,并且与spark core中的RDD API高度对应。这样一来,程序员编写应用时学习的门槛就得以降低。从底层来看,sparkstream 支持与spark core同级别的容错性、吞吐以及可伸缩性。
spark 中还包含一个提供常见的机器学习(ML)功能的程序库,叫做MLlib,它提供了很多机器学习算法,包括分类,回归、聚类、协同过滤等,还提供了模型评估、数据导入等额外的支持功能。MLlib还提供了一些更底层的机器学习原语,包括一个通用的梯度下降优化算法。所有这些方法都被实际为可以在集群上轻松伸缩的结构。
它是用来操作图(比如社交网络的朋友关系图)的程序库,可以进行并行的图计算。与Spark streaming和spark SQL类似,GrapX也扩展了RDD的API,能用来创建一个顶点和边都包含任意属性的有向图。GrapX还支持各针对图的操作以及一些常用图算法。
spark是一个用于集群计算的通用计算框架,因此被用于各种各样的应用程序。
spark应用在数据科学和数据处理应用。
Spark不仅可以将任何Hadoop分布式文件系统HDFS上的文件读取为分布式数据集,也可以支持其他Hadoop接口的系统,比如本地文件、亚马逊S3,hive 、hbase等。hadoop并非spark的必要条件,spark支持任何实现了hadoop接口的存储系统,spark支持的hadoop输入格式包括文本文件、sequencefile、Avro、Parquet等
spark本身是用Scala写的。
spark1.4.0 起支持了R语言
Spark1.4.0 起支持了Python3
下面操作是基于Windows操作的。操作和代码仅限于Java
上述操作仅仅是解压后执行.\bin\spark-shell
出现的。下载后没配置任何文件
Windows上命令行可以尝试使用cmder这款工具
Scala统计行数
scala> val lines=sc.textFile("README.md")## 创建一个名为lines的RDD
scala> lines.count()# 统计RDD中元素的个数
res2: Long = 3
scala> lines.first()#这个RDD中第一个元素,也就是第一行
res5: String = # Apache Spark
要退出任一shell CTRL+D
从上层来看,每个Spark应用都由一个驱动器程序来发起集群上的各种并行操作。驱动器程序包含应用的main函数,并且定义了集群上的分布式数据集,还对这些分布式数据集应用了相关操作,在前面的例子中。实际的驱动器程序就是Spark shell本身,只要输入想要运行的操作就可以了。
驱动器程序通过一个SparkContext对象来访问Spark。这个对象代表计算集群的一个连接。shell启动时已经自动创建了一个SparkContext对象,是一个叫做sc的变量。可以通过下面的方法尝试输出sc来查看它的类型
scala> sc
res6: org.apache.spark.SparkContext = org.apache.spark.SparkContext@5dd1526e
一旦有了SparkContext,你就可以用它来创建RDD。sc.textFile()
来创建一个代表文件中各行文本的RDD。我们可以在这些行上进行各种操作。
要执行这些操作,驱动器程序一般要管理多个执行器节点。比如,如果我们在集群上运行count操作,那么不同的节点会统计文件的不同部分的行数。由于我们刚才是在本地模式运行Spark shell。因此所有的工作会在单个节点上执行,如果将这个shell连接到集群上来进行并行的数据分析,下图展示Spark如何在一个集群上运行。
最后,我们有很多用来传递函数的API,可以将对应操作运行在集群上
Scala版筛选的例子
scala> var lines=sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[15] at textFile at <console>:24
scala> var pythonLines=lines.filter(line=>line.contains("Python"))
pythonLines: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[16] at filter at <console>:26
scala> pythonLines.first()
res8: String = high-level APIs in Scala, Java, Python, and R, and an optimized engine that
向Spark传递参数
上述例子中的lambda或者==>语法不熟悉,后面介绍。
除了交互式应用之外,Spark也可以在Java、Scala或者Python的独立程序中被连接使用,这些与shell中使用主要区别是你要自行初始化SparkContext。
我使用的是spark2.1.1版本,其他语言我不涉及,我下面仅仅是Java版本
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.1.1</version>
</dependency>
public class SparkDemo { static SparkConf conf; static JavaSparkContext sc; /** * 初始化sparkContext * */ static { // TODO 创建SparkContext // 的最基本方法,只需要传递2个参数https://www.cnblogs.com/Forever-Road/p/7351245.html /** * 1:集群URL 告诉spark如何连接到集群上,这个实例中使用local,这个特殊的值可以让spark运行在 * 单机单线程上而不需要连接到集群 2:应用名:当连接到一个集群时,这个值可以帮助你在集群管理器的用户界面中找到你的应用 */ conf = new SparkConf().setMaster("local").setAppName("sparkDemo"); sc = new JavaSparkContext(conf); } public static void main(String[] args) { System.out.println(sc); } } /** * 关闭spark */ public static void closeContext() { sc.close(); // 或者 System.exit(0); }
下面是一个用sb以及meavn来构建并打包一个简单的统计单词的过程。
package cn.zhuzi.spark; import java.io.File; import java.io.IOException; import java.util.Arrays; import java.util.Iterator; import org.apache.commons.io.FileUtils; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.function.FlatMapFunction; import org.apache.spark.api.java.function.Function2; import org.apache.spark.api.java.function.PairFunction; import scala.Tuple2; /** * @Title: SparkDemoWordCount.java * @Package cn.zhuzi.spark * @Description: TODO(spark 统计单词) * @author 作者 grq * @version 创建时间:2018年11月15日 下午2:54:44 * */ public class SparkDemoWordCount { public static void main(String[] args) throws IOException { String base_path = "E:/had/spark/"; String inputPath = base_path + "12.txt"; String outputpath = base_path + "out/a_wc"; File file = FileUtils.getFile(outputpath); if (file.exists()) { FileUtils.deleteDirectory(file); } wordCount(inputPath, outputpath); } @SuppressWarnings("serial") public static <U> void wordCount(String inputPath, String outputpath) { // 创建spark context JavaSparkContext sc = SparkUtils.getContext(); // 读取输入的数据 JavaRDD<String> input = sc.textFile(inputPath); // 切分为单词 JavaRDD<String> words = input.flatMap(new FlatMapFunction<String, String>() { public Iterator<String> call(String t) throws Exception { Iterator<String> iterator = Arrays.asList(t.split(" ")).iterator(); return iterator; } }); // 转换为键值对并基数 JavaPairRDD<String, Integer> counts = words.mapToPair(new PairFunction<String, String, Integer>() { public Tuple2<String, Integer> call(String t) throws Exception { return new Tuple2<String, Integer>(t, 1); } }).reduceByKey(new Function2<Integer, Integer, Integer>() { public Integer call(Integer x, Integer y) throws Exception { return x + y; } }); // 输出到文件。文件必须不存在 counts.saveAsTextFile(outputpath); sc.close(); } }
package cn.zhuzi.spark; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaSparkContext; /** * @Title: SparkUtils.java * @Package cn.zhuzi.spark * @Description: TODO(SparkUtils ) * @author 作者 grq * @version 创建时间:2018年11月15日 下午2:49:33 * */ public class SparkUtils { static SparkConf conf; static JavaSparkContext sc; /** * 初始化sparkContext * */ static { // TODO 创建SparkContext // 的最基本方法,只需要传递2个参数https://www.cnblogs.com/Forever-Road/p/7351245.html /** * 1:集群URL 告诉spark如何连接到集群上,这个实例中使用local,这个特殊的值可以让spark运行在 * 单机单线程上而不需要连接到集群 * <p/> * 2:应用名:当连接到一个集群时,这个值可以帮助你在集群管理器的用户界面中找到你的应用 */ buildContext(); } private static void buildContext() { conf = new SparkConf().setMaster("local").setAppName("sparkDemo"); sc = new JavaSparkContext(conf); } /** * 关闭spark */ public static void closeContext() { sc.close(); // 或者 System.exit(0); } private SparkUtils() throws Exception { throw new Exception("不允许实例化工具类"); } public static JavaSparkContext getContext() { if (sc == null) { buildContext(); } return sc; } }
但是在书中,看着代码比Scala的代码多多了,Scala代码反而简单
书在 40页
RDD对数据的核心抽象——弹性分布式数据集(简称RDD)。RDD其实就是分布式的元素集合。在Spark中,对数据的所有操作不外乎创建RDD,转化已有的RDD以及调用RDD操作进行求值,而这一切的背后,Spark会自动将RDD中的数据分发到集群上,并操作并行执行。
Spark中RDD就是一个不可变的分布式对象集合,每个RDD都被分为多个分区,这些分区运行在集群中的不同节点上,RDD包括Python、Java、Scala中任意类型的对象,甚至可以包含用户自定义的对象。
用户创建RDD的两个方法:读取一个外部数据集,或在驱动器程序里分发驱动器程序中的对象集合(例如list 和set)。
创建出来RDD后,支持两种类型的操作:转化操作和行动操作。
转化操作会由一个RDD生成一个新的RDD。
行动操作会对RDD计算一个结果,并把结果返回到驱动器程序中,或把结果存储到外部存储启动中。
默认情况下,spark的RDD会在每次对他们进行行动操作是重新计算,如果想在多个行动操作中重用一个RDD,可以使用RDD.persist()让Spark把这个RDD换成下载。我们可以把数据持久化到许多不同的地方
实际的操作中,经常会使用persist把数据的一部分读取到内存中,并反复查询这部分数据。
spark提供了两种创建RDD的方式:读取外部数据集,以及在驱动器程序中对一个集合进行并行化。
创建RDD最简单的方式就是把程序中一个已有的集合传递SparkContext的parallelize方法。然后对这些RDD进行操作,不过,除了开发原型和测试时,这种方法使用的不多。
Scala方法中的parallelize
scala> var lines=sc.parallelize(List("panda","shuai"))
java中的parallelize
JavaRDD<String> parallelize = sc.parallelize(Arrays.asList("shuai", "feng"));
RDD的操作:转化和行动操作
RDD的转化是返回新RDD的操作。转化出来的RDD是惰性求值的,只有在行动操作中用到这些RDD时才会被计算。许多转化操作都是针对各个元素的,也就是说,这些转化操作每次只会操作RDD中一个元素。不过并不是所有的转化操作都是这样的。
Java实现filter转化操作
public static void main(String[] args) { JavaRDD<String> textFile = sc.textFile(base_path + readmeFile); JavaRDD<String> filter = textFile.filter(new Function<String, Boolean>() { @Override public Boolean call(String v1) throws Exception { return v1.contains("Python"); } }); closeContext(); } /** * 关闭spark */ public static void closeContext() { sc.close(); // 或者 System.exit(0); }
filter操作不会改变已有的textFile
中的数据,实际上,该操作会返回一个全新的RDD,textFile会在后面的程序中继续使用,比如我们可以从中搜索个别单词。
通过已有的RDD派生出来的新的RDD,spark会使用谱系图来记录这些不同的RDD之间的依赖关系,Spark需要用这些信息来按需计算每个RDD,也可以依赖谱系图在持久化的RDD丢失部分数据时恢复所丢失的数据。谱系图 如下
Java中使用行动操作对错误进行技术
/** * 统计包含INFO的行数 * * @throws IOException */ public static void infoCount() throws IOException { File asFile = Resources.getResourceAsFile("info.txt"); JavaRDD<String> inputRDD = sc.textFile(asFile.getAbsolutePath()); JavaRDD<String> infoRDD = inputRDD.filter(new Function<String, Boolean>() { @Override public Boolean call(String x) throws Exception { return x.contains("INFO"); } }); System.out.println("包含INFO的行数有:" + infoRDD.count()); // INFO的行数是38行,下面的数字40>38程序不会报错,只是打印了全部包含INFO的行 for (String line : infoRDD.take(40)) { System.out.println(line); } }
使用take()获取了RDD中的小量元素,然后在本地遍历,并在驱动器端打印出来。RDD还有一个collect函数,用来获取整个RDD的数据。如果你的程序把RDD筛选到一个很小的规模,并且你想在本地处理这事数据时,就可以使用它。记住,只有当你的整个数据集能在单台机器的内存放得下时,才能使用collect,因此collect不能用在大规模数据集上
多数情况下,RDD不能通过collect手记到驱动器进程中,因为他们一般很大。因此,通常要把数据写到存储诸如HDFS等分布式文件系统中。或者保存为任各种带格式。
惰性求值意味着当我们对RDD调用转化操作时,操作不会立即执行,相反,spark会内部记录下所要求执行的操作相关信息。我们不应该把RDD看做存放特定数据的数据集,而最好把每个RDD当做我们转化操作构建出来的,记录如何计算数据的指令列表。
spark的大部分转化操作和一部分行动操作,都需要依赖用户传递的函数来计算。
在Java中使用匿名内部类传递函数
/**
* Java中使用匿名内部类进行函数传递
*/
public static void fun1() {
JavaRDD<String> textFile = sc.textFile(base_path);
JavaRDD<String> filter = textFile.filter(new Function<String, Boolean>() {
@Override
public Boolean call(String v1) throws Exception {
return v1.contains("Python");
}
});
}
在Java中使用具名类进行函数传递
/** * 在Java中使用具名类进行函数传递 * <p/> * 顶级具名类通常在组织大型程序时显得比较清晰,使用顶级函数的另一个好处是 可以给他们的构造函数添加参数 */ public static void fun2() { JavaRDD<String> lines = sc.textFile(base_path); JavaRDD<String> filter = lines.filter(new ContainsStr("Python")); } } class ContainsStr implements Function<String, Boolean> { private String query; public ContainsStr(String query) { this.query = query; } @Override public Boolean call(String v1) throws Exception { return v1.contains(query); } }
在Java8中使用lamdba表达式进行函数传递
/**
* 在Java8中使用lamdba表达式进行函数传递
*/
public static void fun3() {
JavaRDD<String> lines = sc.textFile(base_path);
lines.filter(s -> s.contains("Python"));
}
匿名类和lamdba表达式都可以应用方法中封装的任意final变量,因此可以像Python和Scala中一样把这些变量传递给spark
先讲述哪些转化操作和行动操作受任意数据类型的RDD支持
最常用的转化操作是map()和filter()。转化操作map接收一个函数,把这个函数用于RDD中的每个元素,将函数返回的结果作为结果RDD中对应元素的值。而转化操作filter()则接收一个函数,并将RDD中满足该函数的元素放入新的RDD中返回。如下图
我们可以使用map()来做 各种各样的事情:可以把URL集合中每个RUL对应的主机名提取出来,也可以见到到只是针对各个数字求平方值。map()的返回值类型不需要和输入类型一样。
以下是一个简单的例子,用map()对RDD中所有数求平方
/**
* 计算RDD中各值得平方
*/
private static void calc() {
JavaSparkContext sc = SparkUtils.getContext();
JavaRDD<Integer> rdd = sc.parallelize(Arrays.asList(1, 2, 3, 4));
JavaRDD<Integer> result = rdd.map(x -> x * x);
System.out.println(StringUtils.join(result.collect(), " "));
}
有时候,我们希望每个输入元素生成多个输出元素。实现该功能的操作叫做flatMap()。和map()类似。我们提供给flatMap()的函数分别被应用到了输入RDD的每个元素上。不过返回的不是一个元素,而是一个返回值序列的迭代器。输出的RDD倒不是迭代器组成的。我们得到的是一个包含各个迭代器可以访问的所有元素的RDD。flatMap的一个简单用途就是把输入的字符串切割分为单词。例如下面
/** * Java 中的 flatMap() 将行数据切分为单词 */ public static void faltMap() { JavaRDD<String> lines = sc.parallelize(Arrays.asList("hello Spark")); JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() { @Override public Iterator<String> call(String t) throws Exception { return Arrays.asList(t.split(" ")).iterator(); } }); System.out.println(words.first());// hello System.out.println(words.collect().toString());// [hello, Spark] } /** * Java 中的 flatMap() 将行数据切分为单词 Lamdba版本 */ public static void faltMapLamdba() { JavaRDD<String> lines = sc.parallelize(Arrays.asList("hello Spark")); JavaRDD<String> words = lines.flatMap(w -> Arrays.asList(w.split(" ")).iterator()); System.out.println(words.first());// hello System.out.println(words.collect().toString());// [hello, Spark] }
flatMap()和map()的区别。可以把flatMap()看做将返回的迭代器”拍扁“,这样就得到了一个由哥列表中的元素组成的RDD,而不是一个由列表组成的RDD。
尽管RDD本身不是严格意义上的集合,但他支许多数学上的结合操作。比如合并和相交操作。(这些操作都要求操作的RDD是相同的数据类型)
我们的RDD操作最常缺失的集合属性是元素的唯一性,因为常常有重复的元素。如果只要求唯一的元素。我们可以使用RDD.distinct()转化操作来生成一个只包含不同元素的新RDD。但是distinct()操作的开销恨到,因为它需要将所有的数据通过网络进行混洗(shuffle),以确保每个元素都只是1份。
最简单的集合操作是union(other),它会返回一个包含两个RDD中所有元素的RDD。(如果有重复元素也会包含在内)
Spark还提供了intersection(other)方法。只返回两个RDD中都有的元素。它在运行时也会取消所有重复的元素(单个RDD内的重复元素也会一起移除)。intersection()因为要通过网络混洗来发现共有的元素,因此性能差很多。
subtract(other),返回一个由只存在第一个RDD中而不存在第二个RDD中所有元素组成的RDD,它也需要数据混洗。
对数据{1,2,3,3}的RDD基本RDD
函数名 | 目的 | 示例 | 结果 |
---|---|---|---|
map() | 将函数应用于RDD中的每个元素,将返回值构成新的RDD | rdd.map(x -> x + 1); | {2, 3, 4, 4} |
flatMap() | 将函数应用于RDD中的每个元素,将返回的迭代器的所有内容构成新的RDD。通常用来切分单词 | rdd.flatMap(x=>x.to(3)) | {1,2,3,2,3,3} |
filter() | 返回一个由通过filter()的函数的元素组成的RDD | rdd.filter(x=x!=1) | {2,3,3} |
distinct | 去重 | rdd.distinct() | {1,2,3} |
sample | 对RDD采样,以及是否替换 | rdd.sample(false,0.5) | 非确定 |
scala> var ls=sc.parallelize(List(1,2,3,4))
scala> var res=ls.flatMap(x=>x.to(3))
scala> print(res.collect().mkString(","))
1,2,3,2,3,3
对数据分别为{1,2,3}和{3,4,5}的RDD进行针对两个RDD的转化操作
函数名 | 目的 | 示例 | 结果 |
---|---|---|---|
union | 生成一个包含两个RDD中所有元素的RDD | rdd.union(other) | {1,2,3,3,4,5} |
intersection | 求两个RDD的共同元素的RDD | rdd.intersection(other) | {3} |
subtract | 移除一个RDD中的内容 | rdd.suntract | {1,2} |
cartesian | 与另一个RDD的笛卡尔积 | rdd.cartesian(other) | {(1,3),(1,4),……,(3,5)} |
RDD最常用的行动操作reduce()。它接收一个函数作为参数,这个函数操作两个RDD的元素类型的数据返回一个同样类型的新元素。一个简单的例子流失函数+,可以用来对我们的RDD进行累加。使用reduce,可以方便的计算出RDD中所有元素的总和,元素的个数以及其他类型的聚合操作。
我总感觉 Java版本最复杂,Scala看着简单,要么就使用Java8的lamdba
fold和reduce类似,接收一个与reduce接收的函数签名相同的函数,在加上一个“初始值”来作为每个分区第一次调用的结果。
fold和reduce都要求函数的返回值类型需要和我们所操作的RDD中的元素类型相同,这很符合像sum这种操作的情况。但有时我么需要返回一个不同类型的值。例如,在计算平均值时,需要记录遍历过程中的计数以及元素的数量,这就需要我们返回一个二元组。我们先对数据使用map操作,把元素转化为该元素和1的二元组。这样reduce就可以以二元组的形式进行归约了。
aggregate函数则把我们发挥值类型必须与操作的RDD类型相同的限制中解放出来。与fold类似,使用该函数时,需要提供我们期待返回的类型的初始值。然后通过一个函数把RDD中的元素合并起来放入累加器,考虑到每个节点是本地进行累加的,最终,还需要提供第二个函数来将累加器两两合并。
此处aggregate没看懂,不清楚代码中的nums是怎么来的
RDD的一些行动操作会以普通集合或者值得形式将RDD的部分或全部数据返回驱动器程序中。
把数据返回驱动器程序中最简单、最常见的操作是collect,它会将整个RDD的内容返回,collect通常在单元测试中使用,因此此时RDD的整个内容不会很大,可以放在内存中,使用collect使得RDD的值与预期结果之间的对比变得很容易。由于需要将数据复制到驱动器进程中,collect要求所有数据都必须能一同放入单台机器内存中。
take(n)返回RDD中的n个元素,并且尝试值访问尽量少的分区,因此该操作会得到一个不均衡的集合。需要注意的是,这些操作返回的元素顺序和预期的可能不一致。
如果数据定义了顺序,就可以使用top()从RDD中获取前几个元素,top()会使用数据的默认顺序,但是我们可以提供了自己的比较函数,来提取前几个元素。
有时我们会对RDD中所有元素应用一个行动操作,但是不把任何结果返回到驱动器程序中,这也是有用的,比如可以用json格式把数据发送到一个网络服务上,或者把数据存储到数据库中。不论哪种情况,都可以使用foreach()行动操作来对RDD中的每个元素进行操作,而不需要把RDD发回本地。
对一个数据为{1,2,3,4}的RDD进行基本的RDD行动操作
函数名 | 目的 | 示例 | 结果 |
---|---|---|---|
collect() | 返回RDD中所有元素 | rdd.collect() | {1,2,3,3} |
count() | RDD的个数 | rdd.count() | 4 |
countByValue() | 各元素在RDD出现的次数 | rdd.countByValue() | {(1,1),(2,1),(3,2)} |
take(num) | 从RDD中返回num个元素 | rdd.take(2) | {1,2} |
top(num) | 从RDD中返回最前面的num个元素 | rdd.top(2) | {1,2} |
takeOrdered(num)(ordering) | 从RDD中按照提供的顺序返回最前面的num个元素 | rdd.takeOrdered(2)(myOrdering) | |
fold(zero)(func) | 和reduce一样,但是需要提供初始值 | rdd.fold(0)((x,y)=>x+y) | 9 |
foreach(func) | 对RDD中每个元素使用给定的函数 | rdd.foreach(func) |
我是记录Java相关
在Java中,各种RDD的特殊类型间的转化更为明确。Java中有两个专门的类JavaDoubleRDD和JavaPairRDD,来处理特殊类型的RDD。这两个针对对这些类型提供了额外的函数。
要构建出这些特殊类型的RDD,需要使用特殊版本的类来替代一般使用的Function类。如果从T类型的RDD创建出一个DoubleRDD。我们就应当在映射操作中使用DoubleFunction来替代Functon。
Java中针对专门类型的函数接口
函数名 | 等价函数 | 用途 |
---|---|---|
DoubleFlatMapFunction | Function<T,Iterable> | 用于flatMapToDouble,以生成DoubleRDD |
DoubleFunction | Function<T,Double> | 用于mapToDouble,以及生成DoubleRDD |
PairFlatMapFunction<T,K,V> | Function<T,Iterable<tUPLE2<k,v>>> | 用于flatMapToPair,以生成PairRDD<K,V> |
PairFunction<T,K,V> | Function<T,Tuple2<K,V>> | 用于mapToPair,以生成PairRDD |
用Java创建DoubleRDD
public static void calcMap() {
JavaRDD<Integer> lines = sc.parallelize(Arrays.asList(1, 2, 3, 4));
JavaDoubleRDD mapToDouble = lines.mapToDouble(x -> x * x);
System.out.println(mapToDouble.collect());// [1.0, 4.0, 9.0, 16.0]
System.out.println(mapToDouble.mean());// 7.5 这个值好像是上面的平均值
}
如前所述,Saprk RDD是惰性求值的。有时候我们希望多次使用同一个RDD。如果简单地对RDD调用行动操作,Spark每次都会重算RDD以及它的所有依赖,这些迭代算法中小号很大,因此迭代算法常常会多次使用同一组数据。
两次执行
/**
* 两次执行
*/
private void doucleCalc() {
JavaRDD<Integer> lines = sc.parallelize(Arrays.asList(1, 2, 3, 4));
JavaRDD<Integer> result = lines.map(x -> x * 5);
System.out.println(result.count());
System.out.println(StringUtils.join(result.collect(), ","));
}
为了避免多次计算同一个RDD,可以让Spark对数据就行持久化。当我们让Spark持久化存储一个RDD时,计算出RDD的节点会分别保存他们所求出的分区数据。如果一个持久化数据的节点发送故障,Spark会在需要用到缓存的数据时重算丢失的数据分区,如果希望节点故障的情况不会拖累我们的执行速度,也可以把数据备份在多个节点上。
出于不同的目的,我们可以为RDD选择不同的持久化级别。
org.apache.spark.storage.StorageLevel 和 pyspark.StorageLevel 中的持久化级
别;如有必要,可以通过在存储级别的末尾加上“_2”来把持久化数据存为两份
private void doucleCalc() {
JavaRDD<Integer> lines = sc.parallelize(Arrays.asList(1, 2, 3, 4));
JavaRDD<Integer> result = lines.map(x -> x * 5);
result.persist(StorageLevel.DISK_ONLY());
System.out.println(result.count());
System.out.println(StringUtils.join(result.collect(), ","));
}
RDD还有一个方法(unpersist),调用该方法可以手动把持久化的RDD从缓存中移除
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。