赞
踩
本章为hadoop+spark+yarn 的pyspark交互式环境。
[root@hadoop1]# cd /home/hadoop/spark/bin
[root@hadoop1 bin]# pyspark
默认本地启动pyspark
一、RDD创建
Spark采用textFile()方法从文件系统中加载数据创建RDD
1、从文件系统中加载数据创建RDD
(1)、从本地文件加载
>>> lines = sc.textFile("file:///home/hadoop/temp/word.txt")
>>> lines.foreach(print)
显示
Spark提供的SparkContext对象,名称为sc
在pyspark启动时创建的,交互式环境可以直接引用,如独立编程环境,则需通过如下完成SparkContext对象。
from pyspark import SparkConf,SparkCountext
conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
(2)、从分布式文件系统HDFS中加载数据
>>> lines = sc.textFile("hdfs://hadoop1:9000/tmp/word.txt")
>>> lines.foreach(print)
显示
2、通过并行集合创建RDD
可以通过SparkContext的parallelize方法从一个已经存在的集合上创建RDD
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。