赞
踩
spark是专为大规模数据处理而设计的快速通用计算引擎,与Hadoop的MapReduce功能类似,但它是基于内存的分布式计算框架,存储还是采用HDFS。
两者框架的区别:
功能 | Hadoop组件 | Spark组件 |
---|---|---|
批处理 | MapReduce、Hive或者Pig | Spark Core、Spark SQL |
交互式计算 | Impala、presto | Spark SQL |
流式计算 | Storm | Spark Streaming |
机器学习 | Mahout | Spark ML、Spark MLLib |
Spark具有以下优点:
Spark的缺点:
Spark的数据集合采用RDD(Resilient Distributed Dataset)弹性分布式数据集,它是一个不可变、可分区和可并行计算的集合。
RDD的数据操作也叫做算子,一共包括三类算子:transformation、action和persist,其中前两种进行数据处理,persist进行数据存储操作。
我们要了解所有的transformation的操作都是lazy:即不会立刻计算结果,而是记录下数据集的transformation操作,只有调用了action操作之后才会计算所有的transformation,这样会让spark运行效率更高。
pyspark启动
进入SPARK_HOME/sbin⽬录下执⾏
pyspark
sparkUI
可以在spark UI中看到当前的Spark作业 在浏览器访问当前centos的4040端⼝192.168.19.137:4040
启动RDD
rdd1 = sc.parallelize([1,2,3,4,5,6,7,8,9],3)
rdd2 = rdd1.map(lambda x:x+1)
print(rdd2.collect())
[2, 3, 4, 5, 6, 7, 8, 9, 10]
rdd1 = sc.parallelize([1,2,3,4,5,6,7
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。