当前位置:   article > 正文

大数据-玩转数据-Spark-RDD编程基础-RDD创建(python版)_sparkrdd编程创建rdd

sparkrdd编程创建rdd

大数据-玩转数据-Spark-RDD编程基础-RDD创建(python版)

本章为hadoop+spark+yarn 的pyspark交互式环境。

[root@hadoop1]# cd /home/hadoop/spark/bin
[root@hadoop1 bin]# pyspark
  • 1
  • 2

默认本地启动pyspark

一、RDD创建
Spark采用textFile()方法从文件系统中加载数据创建RDD
1、从文件系统中加载数据创建RDD
(1)、从本地文件加载

>>> lines = sc.textFile("file:///home/hadoop/temp/word.txt")
>>> lines.foreach(print)
  • 1
  • 2

显示
在这里插入图片描述
Spark提供的SparkContext对象,名称为sc
在pyspark启动时创建的,交互式环境可以直接引用,如独立编程环境,则需通过如下完成SparkContext对象。

from pyspark import SparkConf,SparkCountext
conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
  • 1
  • 2
  • 3

(2)、从分布式文件系统HDFS中加载数据

>>> lines = sc.textFile("hdfs://hadoop1:9000/tmp/word.txt")
>>> lines.foreach(print)
  • 1
  • 2

显示
在这里插入图片描述
2、通过并行集合创建RDD
可以通过SparkContext的parallelize方法从一个已经存在的集合上创建RDD
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/532870
推荐阅读
相关标签
  

闽ICP备14008679号