当前位置:   article > 正文

pyspark使用方法_pyspark使用教程

pyspark使用教程

来源,官网spark2.2.1版本 
pyspark不同函数的形象化解释 
SparkSession是Spark 2.0引入的新概念。SparkSession为用户提供了统一的切入点,来让用户学习spark的各项功能。 在spark的早期版本中,SparkContext是spark的主要切入点,由于RDD是主要的API,我们通过sparkcontext来创建和操作RDD。对于每个其他的API,我们需要使用不同的context。例如,对于Streming,我们需要使用StreamingContext;对于sql,使用sqlContext;对于hive,使用hiveContext。但是随着DataSet和DataFrame的API逐渐成为标准的API,就需要为他们建立接入点。所以在spark2.0中,引入SparkSession作为DataSet和DataFrame API的切入点。SparkSession实质上是SQLContext和HiveContext的组合(未来可能还会加上StreamingContext),所以在SQLContext和HiveContext上可用的API在SparkSession上同样是可以使用的。SparkSession内部封装了SparkContext,所以计算实际上是由SparkContext完成的。

1、pyspark函数接口

pyspark.SparkConf()

是对spark应用进行设置的类

pyspark.SparkContext()

是spark应用的入口,也可以称为驱动 
SparkContext.broadcast(value)函数:广播变量 
广播变量允许程序员将一个只读的变量缓存在每台机器上,而不用在任务之间传递变量。广播变量可被用于有效地给每个节点一个大输入数据集的副本。Spark还尝试使用高效地广播算法来分发变量,进而减少通信的开销。 
Spark的动作通过一系列的步骤执行,这些步骤由分布式的洗牌操作分开。Spark自动地广播每个步骤每个任务需要的通用数据。这些广播数据被序列化地缓存,在运行任务之前被反序列化出来。这意味着当我们需要在多个阶段的任务之间使用相同的数据,或者以反序列化形式缓存数据是十分重要的时候,显式地创建广播变量才有用。 
通过在一个变量v上调用SparkContext.broadcast(v)可以创建广播变量。广播变量是围绕着v的封装,可以通过value方法访问这个变量。举例如下:

  1. from pyspark import SparkContext
  2. from numpy import array
  3. sc=SparkContext()
  4. broadcast_var= sc.broadcast(array([1,2,3,4]))
  5. print(broadcast_var.value)
  6. #运行结果 [1 2 3 4]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在创建了广播变量之后,在集群上的所有函数中应该使用它来替代使用v.这样v就不会不止一次地在节点之间传输了。另外,为了确保所有的节点获得相同的变量,对象v在被广播之后就不应该再修改。

SparkContext.parallelize(c,numSlice=none)

将一个本地的python对象集群分布以创建一个RDD。如果是将一个范围实现RDD化,推荐使用xrange(),xrange与range的区别在于xrange是生成一个列表对象,而不是列表本身,因而不需要一上来就开辟一块内存区域,但是python3已经没有xrange了。

  1. sc=SparkContext()
  2. print(sc.parallelize([1,2,3,4,5,6],3).glom().collect())
  3. print(sc.parallelize([0,6,2],5).glom().collect())
  • 1
  • 2
  • 3

结果如下:

  1. [[1, 2], [3, 4], [5, 6]]
  2. [[], [0], [], [6], [2]]
  • 1
  • 2

上面的程序中,parallelize的第二个参数是RDD的切片数目(这个跟分区有区别?), 
同时可以看到,如果元素个数少于分区数,则会产生空的列表。

SparkContext.range(start,end=none,step=1,numSlice=none)

产生某个范围内元素组成的RDD

  1. sc=SparkContext()
  2. print(sc.range(1,7,2).collect())
  • 1
  • 2

结果如下:

[1, 3, 5]
  • 1

SparkContext.textFile(name, minPartitions=None, use_unicode=True)

从hdfs上,从本地等读取txt文件,并转换成RDD

SparkContext.wholeTextFiles(path, minPartitions=None, use_unicode=True)

读取整个文件夹下的txt文件

SparkContext.union(rdds)

将不同的RDD组合在一起

rdd.map(f)

将rdd中的每一个元素作一个一对一的映射,映射后的一可以是一个元素或一个组合,比如元组、列表等。如果输入是一个dataframe,比如使用sparksql读取hive数据表,此时rdd中的每一个元素对应原数据库中的一行。这样我们可以做针对行的组合操作。 
比如使用map实现(key,values)操作:

  1. #我们首先创建这样的一个rdd
  2. input_data=sc.parallelize([['a',1],['b',2],['b',3],['c',4],['a',5],['b',6]],2)
  3. #查看结果:
  4. print(input_data.glom().collect())
  5. #结果如下:
  6. #[[['a', 1], ['b', 2], ['b', 3]], [['c', 4], ['a', 5], ['b', 6]]]
  7. #可以看到这样rdd有2个分区,每个分区中包含3个元素,每个元素均为一个列表
  8. #我们假如第一个是键,第二个是值,下面我们来构造键值对rdd,并对每个键进行求和。
  9. #首先利用map(f)构造键值对
  10. input_key_value=input_data.map(lambda x:(x[0],x[1]))
  11. #查看一下结果:
  12. #[[('a', 1), ('b', 2), ('b', 3)], [('c', 4), ('a', 5), ('b', 6)]]
  13. #从上面的结果可以看到,分区未发生变化。但每个元素的形式发生了变化
  14. #下面利用reduceByKey(f)来求和
  15. sum_value=input_key_value.reduceByKey(lambda x,y:x+y)
  16. #上式中lambda传入的参数x,y代表元素的值两两间进行,返回x+y表示两两求和,按键逐步聚合。
  17. print(sum_value.glom().collect())
  18. #结果如下:
  19. #[[('c', 4), ('b', 11)], [('a', 6)]]
  20. #上面的结果比较有意思的是,求reduceByKey求和后,仍然是两个分区。很显示这样存在分区间的数据传递。所以从效率的角度考虑这样的分区方式并不合理。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

下面用map实现函数映射,这里以kmeans为例.代码主体来源网上。

  1. #生成多类单标签数据集
  2. import numpy as np
  3. import matplotlib.pyplot as plt
  4. from sklearn.datasets.samples_generator import make_blobs
  5. center=[[1,1],[-1,-1],[1,-1]]
  6. cluster_std=0.3
  7. X,labels=make_blobs(n_samples=200,centers=center,n_features=2,
  8. cluster_std=cluster_std,random_state=0)
  9. print('X.shape',X.shape)
  10. print("labels",set(labels))
  11. unique_lables=set(labels)
  12. colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))
  13. for k,col in zip(unique_lables,colors):
  14. x_k=X[labels==k]
  15. plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",
  16. markersize=14)
  17. plt.title('data by make_blob()')
  18. plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

生成的数据 
X.shape (200, 2) 
labels {0, 1, 2} 
其图像如下所示: 
这里写图片描述
下面是基于map和reduceByKey完成的kmeans聚类

  1. #生成多类单标签数据集
  2. import numpy as np
  3. import matplotlib.pyplot as plt
  4. from sklearn.datasets.samples_generator import make_blobs
  5. center=[[1,1],[-1,-1],[1,-1]]
  6. cluster_std=0.3
  7. X,labels=make_blobs(n_samples=200,centers=center,n_features=2,
  8. cluster_std=cluster_std,random_state=0)
  9. # print('X.shape',X.shape)
  10. # print("labels",set(labels))
  11. #
  12. unique_lables=set(labels)
  13. colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))
  14. for k,col in zip(unique_lables,colors):
  15. x_k=X[labels==k]
  16. plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",
  17. markersize=14)
  18. # plt.title('data by make_blob()')
  19. # plt.show()
  20. from pyspark import SparkContext
  21. def closestPoint(p,centers):#计算某个元素的类别
  22. bestIndex = 0#初始化类别
  23. closest = float("+inf")#初始化某点与任意一聚类中心的最小距离为无穷大
  24. for i in range(len(centers)):
  25. tempDist = np.sum((p - centers[i]) ** 2)#某个元素到某个聚类中心的距离
  26. if tempDist < closest:
  27. closest = tempDist#更新与任意一聚类中心的最小距离
  28. bestIndex = i#更新类别
  29. return bestIndex
  30. sc=SparkContext()
  31. inputData=sc.parallelize(X).cache()#将原数据转换成rdd,每一个元素对应于一个样本点,并将数据缓存。这里每个元素是array([x1,x2])的形式。
  32. K=3#初始化类的数目
  33. convergeDist=0.01#初始化相临两次聚类中心的最小收敛距离,即如果新的聚类中心与上一次聚类中心距离很小了,就可以不用再继续优化了。
  34. tempDist = 1#初始化相临两次聚类中心的距离
  35. kPoints=inputData.takeSample(False,K,1)#随机抽取K个类中心,即初始化聚类中心。
  36. #print(kPoints)
  37. #结果[array([ 1.04321307, 1.43628205]), array([ 0.85610326, -0.81389251]), array([-1.42721827, -1.14799597])]
  38. while tempDist > convergeDist:
  39. closest = inputData.map(lambda p: (closestPoint(p, kPoints), (p, 1)))#将元素映射到这样的键值对,元素---->(类别,(元素,1))
  40. #print(closest.collect())
  41. #结果[(0, (array([ 1.68092639, 0.5636903 ]), 1)), ..., (2, (array([-1.36763066, -0.74669111]), 1))]
  42. pointStats = closest.reduceByKey(lambda p1_c1, p2_c2: (p1_c1[0] + p2_c2[0], p1_c1[1] + p2_c2[1]))#(类别,(元素,1))---->(类别,(array(sum(维度1),sum(维度2)), n))
  43. #print(pointStats.collect())
  44. #结果[(0, (array([ 67.85854692, 71.4189192 ]), 67)), (1, (array([ 62.88505036, -68.0744321 ]), 67)), (2, (array([-69.06467775, -68.44964606]), 66))]
  45. newPoints = pointStats.map(lambda st: (st[0], st[1][0] / st[1][1])).collect()#计算新的聚类中心
  46. #print(newPoints)
  47. #结果[(0, array([ 1.01281413, 1.06595402])), (1, array([ 0.93858284, -1.0160363 ])), (2, array([-1.04643451, -1.03711585]))]
  48. tempDist = sum(np.sum((kPoints[iK] - p) ** 2) for (iK, p) in newPoints)#计算相临两次聚类中心的距离
  49. #print(tempDist)
  50. #结果0.343022614898
  51. for (iK, p) in newPoints:#更新聚类中心
  52. kPoints[iK] = p
  53. print("Final centers: " + str(kPoints))
  54. newInput=closest.collect()
  55. #这里先这样画
  56. for p in newInput:
  57. if p[0]==0:
  58. plt.plot(p[1][0][0], p[1][0][1], '*', markerfacecolor='g', markeredgecolor='b',
  59. markersize=14)
  60. elif p[0]==1:
  61. plt.plot(p[1][0][0], p[1][0][1], '*', markerfacecolor='b', markeredgecolor='r',
  62. markersize=14)
  63. else:
  64. plt.plot(p[1][0][0], p[1][0][1], '*', markerfacecolor='r', markeredgecolor='g',
  65. markersize=14)
  66. plt.title('kmeansByPySpark')
  67. plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70

得到的结果如下: 
这里写图片描述
图中,圆圈是原始类别,五角星是通过聚类学习到的类别,可以看到聚类完全正确。

flatMap(f)

flatMap的用法与map类似,只不过map是一个输入元素对应一个输出元素,而flatMap一个输入元素对应多个输出元素。

  1. from pyspark import SparkContext
  2. sc=SparkContext()
  3. x=sc.parallelize([1,2,3])
  4. xFM1=x.flatMap(lambda x:(x,x*100,x**2))
  5. xFM2=x.flatMap(lambda x:[x,x*100,x**2])
  6. xFM3=x.flatMap(lambda x:(x,(x*100,x**2)))
  7. print(x.collect())
  8. print(xFM1.collect())
  9. print(xFM2.collect())
  10. print(xFM3.collect())
  11. #结果如下:
  12. #[1, 2, 3]
  13. #[1, 100, 1, 2, 200, 4, 3, 300, 9]
  14. #[1, 100, 1, 2, 200, 4, 3, 300, 9]
  15. #[1, (100, 1), 2, (200, 4), 3, (300, 9)]
  16. #所以不管是组合成一个元组,还是组合成一个列表,最后都会把里面的每一个单元当成是输出rdd的一个元素,这就是一对多;但是里面的单元只深入到第一层,不会继续拆分,否则就无法控制。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

mapValues(f)

将键值对形式的rdd的值用函数f来作用,而保持键不变,同时分区不变。

flatMapValues(f)[source]

综合flatMap和mapValues的特点。

mapPartitions(f, preservesPartitioning=False)

与map不同,map是对每一个元素用函数作用;而mapPartitions是对每一个分区用一个函数去作用,每一个分区的元素先构成一个迭代器iterator,iterator是一个像列表,但里面的元素又保持分布式特点的一类对象;输入的参数就是这个iterator,然后对iterator进行运算,iterator支持的函数不是太多,sum,count等一些spark定义的基本函数应该都是支持的。但如果要进行更为复杂的一些个性化函数运算,可以就用不了。实践中发生可以通过[x for i in iterator]的方式,将iterator转换为列表,然后就可以进行各种操作。但是这样在分区内部或分组内部就失去了分布式运算的特点。

  1. x=sc.parallelize([1,2,3],2)
  2. def f(iterator):yield sum(iterator)
  3. xMP=x.mapPartitions(f)
  4. print(x.glom().collect())
  5. print(xMP.glom().collect())
  6. #结果为:
  7. #[[1], [2, 3]]
  8. #[[1], [5]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

mapPartitionsWithIndex

与mapPartition相比,mapPartitionWithIndex能够保留分区索引,函数的传入参数也是分区索引和iterator构成的键值对。给了我们操作分区索引的机会,至于最后的结果要不要保留分区索引那是另一回事。

  1. x=sc.parallelize([1,2,3],2)
  2. def f1(partitionIndex,iterator):yield (partitionIndex,sum(iterator))
  3. def f2(partitionIndex,iterator):yield sum(iterator)
  4. xMP1=x.mapPartitionsWithIndex(f1)
  5. xMP2=x.mapPartitionsWithIndex(f2)
  6. print(x.glom().collect())
  7. print(xMP1.glom().collect())
  8. print(xMP2.glom().collect())
  9. #结果为:
  10. #[[1], [2, 3]]
  11. #[[(0, 1)], [(1, 5)]]
  12. #[[1], [5]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

partitionBy(numPartitions, partitionFunc=)

按给定的分区数和映射方法进行分区

  1. pairs = sc.parallelize([1, 2, 3, 4, 2, 4, 1]).map(lambda x: (x, x))
  2. print(pairs.collect())
  3. sets = pairs.partitionBy(2).glom().collect()
  4. print(sets)
  • 1
  • 2
  • 3
  • 4

结果如下:

  1. [(1, 1), (2, 2), (3, 3), (4, 4), (2, 2), (4, 4), (1, 1)]
  2. [[(4, 4), (2, 2), (4, 4), (2, 2)], [(1, 1), (3, 3), (1, 1)]]
  • 1
  • 2

rdd.coalesce(numPartitions,shuffle=none)

按时新的分区数重新分区

  1. print(sc.parallelize([1,2,3,4,5,6],3).glom().collect())
  2. print(sc.parallelize([1,2,3,4,5,6],3).coalesce(2).glom().collect())
  • 1
  • 2

结果如下:

  1. [[1, 2], [3, 4], [5, 6]]
  2. [[1, 2], [3, 4, 5, 6]]
  • 1
  • 2

rdd.repartition(numPartitions)

按时新的分区数重新分区

rdd.zip(other)

将第一个rdd的元素作用键,第二个rdd的元素作为值,组成新rdd的元素。

  1. x=sc.parallelize(['B','A','A'])
  2. y=x.map(lambda x:ord(x))
  3. z=x.zip(y)
  4. print(x.collect())
  5. #结果为:['B', 'A', 'A']
  6. print(y.collect())
  7. #结果为:[66, 65, 65]
  8. print(z.collect())
  9. #结果为:[('B', 66), ('A', 65), ('A', 65)]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

rdd.zipWithIndex()

将rdd的元素作键,索引(可以理解为看到的位置索引)作为值,组成新rdd的元素。

  1. x=sc.parallelize(['B','A','A'],2)
  2. y=x.zipWithIndex()
  3. print(x.collect())
  4. print(y.collect())
  5. #结果为:[['B'], ['A', 'A']]
  6. #结果为:[[('B', 0)], [('A', 1), ('A', 2)]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

rdd.zipWithUniqueId()

将rdd的元素作键,按公式算出的值作为值,组成新rdd的元素。 
Zips this RDD with generated unique Long ids. 
Items in the kth partition will get ids k, n+k, 2*n+k, …, where n is the number of partitions. So there may exist gaps, but this method won’t trigger a spark job, which is different from zipWithIndex

rdd.keyBy(f)

为rdd中的每个元素按照函数f生成一个键,新rdd的元素以元组形式存在。

  1. x=sc.parallelize([1,2,3])
  2. y=x.keyBy(lambda x:x**2)
  3. print(x.collect())
  4. #结果为[1, 2, 3]
  5. print(y.collect())
  6. #结果为[(1, 1), (4, 2), (9, 3)]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

rdd.foreach(f)

对RDD中的每个元素使用函数来作用,由于是直接对每个元素操作并产生结果,所以得到的结果不是rdd,而是普通python对象。这与foreachPartition不同。

  1. from pyspark import SparkContext
  2. sc=SparkContext()
  3. rdd_data=sc.parallelize([1,2,3,4,5],2)
  4. print(rdd_data.glom().collect())
  5. def f(x):
  6. print(x)
  7. list_new=rdd_data.foreach(f)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

结果如下:

  1. [[1, 2], [3, 4, 5]]
  2. 3
  3. 4
  4. 5
  5. 1
  6. 2
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

一个将rdd元素逐个写到文件中的例子:

  1. inputData=sc.parallelize([1,2,3])
  2. def f(x):#定义一个将内容追加于文件末尾的函数
  3. with open('./example.txt','a+') as fl:
  4. print(x,file=fl)
  5. open('./example.txt','w').close()#操作之前先关闭之前可能存在的对该文件的写操作
  6. y=inputData.foreach(f)
  7. print(y)
  8. #结果为:None,因为函数f没有返回值
  9. #查看写文件的结果
  10. with open('./example.txt') as fl:
  11. print(fl.read())
  12. #结果为:
  13. '''
  14. 1
  15. 2
  16. 3
  17. '''
  18. #说明每一个元素都被写到文件'./example.txt'中去了。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

rdd.foreachpartition

对RDD的每一个分区使用函数来作用

  1. from pyspark import SparkContext
  2. sc=SparkContext()
  3. rdd_data=sc.parallelize([1,2,3,4,5],2)
  4. print(rdd_data.glom().collect())
  5. def f(iterator):
  6. for x in iterator:
  7. print(x)
  8. list_new=rdd_data.foreachPartition(f)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

结果如下:

  1. [[1, 2], [3, 4, 5]]
  2. 1
  3. 3
  4. 2
  5. 4
  6. 5
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

写分区内容的例子

  1. inputData=sc.parallelize([1,2,3],5)
  2. print(inputData.glom().collect())
  3. #结果为:
  4. #[[], [1], [], [2], [3]]
  5. def f(x):#定义一个将内容追加于文件末尾的函数
  6. with open('./example.txt','a+') as fl:
  7. print(list(x),file=fl)#先对分区序列进行转化再写入到文件中
  8. open('./example.txt','w').close()#操作之前先关闭之前可能存在的对该文件的写操作
  9. y=inputData.foreachPartition(f)
  10. print(y)
  11. #结果为:None,因为函数f没有返回值
  12. #查看写文件的结果
  13. with open('./example.txt') as fl:
  14. print(fl.read())
  15. #结果为:
  16. '''
  17. []
  18. []
  19. [2]
  20. [1]
  21. [3]
  22. '''
  23. #说明每一个分区序列都被写到文件'./example.txt'中去了。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

rdd.groupByKey(numPartitions=None, partitionFunc=)

原rdd为键值对,groupByKey()则将原rdd的元素相同键的值编进一个sequence(不知道与list和iterator的不同有多大,可以暂时当成iterator看)

  1. rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 1)])
  2. rddGp=rdd.groupByKey()
  3. print(rdd.collect())
  4. print(rddGp.collect())
  5. #结果如下:
  6. #[('a', 1), ('b', 1), ('a', 1)]
  7. #[('a', <pyspark.resultiterable.ResultIterable object at 0x7fe1e3f88710>), ('b', <pyspark.resultiterable.ResultIterable object at 0x7fe1e3f88668>)]
  8. #从结果看,确实是将键相同的值编到一个序列里了,但类型很奇怪。这样看没有什么用处。但是后面可以接其他函数,一般都接mapValues(f),这样就可以完成按对值的一些操作。
  9. def f(x):
  10. a=list(x)#直接使用x会报错,说明sequence并不能用for
  11. for i in range(len(a)):
  12. a[i]=a[i]*2
  13. return a
  14. gpMp1=rddGp.mapValues(len)
  15. gpMp2=rddGp.mapValues(list)
  16. gpMp3=rddGp.mapValues(f)
  17. print(gpMp1.collect())
  18. print(gpMp2.collect())
  19. print(gpMp3.collect())
  20. #结果如下:
  21. #[('a', 2), ('b', 1)],按键计算对应值的个数
  22. #[('a', [1, 1]), ('b', [1])],按键将值转换成列表形式
  23. #[('a', [2, 2]), ('b', [2])],通过自定义函数可以按键对值实现更复杂的操作。
  24. #groupByKey()+mapValues()与reduceByKey()的过程很像,但两者运行效率相差很大,在能够用reduceByKey()或aggregateByKey的时候,尽量不要用groupByKey()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

groupByKey()和flatPapValues()综合应用

rdd.groupBy(f, numPartitions=None, partitionFunc=)

groupBy()的用法与groupByKey相似,但传入参数多了f,传入的函数f可以把它当成用来生成新的key的。它也围绕这个潜在的key将值编进一个序列。可以看得出来,它比groupByKey更灵活。

  1. rdd = sc.parallelize([1, 1, 2, 3, 5, 8])
  2. result=rdd.groupBy(lambda x:x%2)#按余数来分组
  3. #后面紧接着一般是mapValues函数做进一步处理,这里我们直接获取该数据而不做进一步处理。
  4. print(result.collect())
  5. #结果如下
  6. [(0, <pyspark.resultiterable.ResultIterable object at 0x7f336e26f550>), (1, <pyspark.resultiterable.ResultIterable object at 0x7f336e26f6a0>)]
  7. #所以要用for函数或在mapValues内部用list将pyspark.resultiterable.ResultIterable object转换出来
  8. resultGp=[(x,sorted(y)) for (x,y) in result.collect()]
  9. print(resultGp)
  10. #结果如下:
  11. [(0, [2, 8]), (1, [1, 1, 3, 5])]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

rdd.reduce(f)

reduce函数是将rdd中的每个元素两两之间按函数f进行操作,然后再结果再两两之间按f进行操作,一直进行下去,即所谓的shuffle过程。reduce得到的结果是普通的python对象,而不是rdd.

rdd.keys()

原rdd的元素为键值对,返回原rdd元素的键为元素的rdd

rdd.values()

原rdd的元素为键值对,返回原rdd元素的值为元素的rdd

rdd.reduceByKey(func, numPartitions=None, partitionFunc=)

reduceByKey函数与reduce相似,但它是按key分组,在组内,将元素两两之间按函数f操作。可以看成是将value参数传入了,但最终结果又不丢失key的信息。更详细的使用,可参考上面介绍map函数时的例子。reduceByKey得到的结果是普通的python对象,而不是rdd.

rdd.reduceByKeyLocally(f)

其他与reduceByKey一样,只不过聚合后立即将键,值对以字典的形式传给到集群master

  1. from operator import add
  2. inputRdd=sc.parallelize([("a", 1), ("b", 1), ("a", 1)])
  3. rddRBKL=inputRdd.reduceByKeyLocally(add)
  4. print(inputRdd.collect())
  5. #结果为:[('a', 1), ('b', 1), ('a', 1)]
  6. print(rddRBKL)
  7. #结果为:{'a': 2, 'b': 1}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

fold(zeroValue, op)[source]

与partitionBy很像,只不过有一个起始值。fold函数是按分区对每个元素进行操作,即先每个元素与起始值按op进行操作,得到的结果再两两之间按op操作,一直进行下去得到分区结果,然后再将分区结果按op操作。

  1. >>> from operator import add
  2. >>> x=sc.parallelize([1,2,3],2)
  3. >>> y=x.fold(1,lambda valueInitial,accumulated:accumulated+valueInitial)#这里的valueInitial,accumulated可以随便取名字,只表示输入
  4. print(x.collect())
  5. #结果为:[1, 2, 3]
  6. >>> print(y)
  7. #结果为9
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

关于python内置操作op有哪些,可以使用help(‘operator’)进行查询,operator是一个专门的模块。这个模块是mapValues(f),reduce(),aggregate()等相似功能函数都能使用的。详细列举如下:

  1. Help on module operator:
  2. NAME
  3. operator - Operator interface.
  4. DESCRIPTION
  5. This module exports a set of functions implemented in C corresponding
  6. to the intrinsic operators of Python. For example, operator.add(x, y)
  7. is equivalent to the expression x+y. The function names are those
  8. used for special methods; variants without leading and trailing
  9. '__' are also provided for convenience.
  10. CLASSES
  11. builtins.object
  12. attrgetter
  13. itemgetter
  14. methodcaller
  15. class attrgetter(builtins.object)
  16. | attrgetter(attr, ...) --> attrgetter object
  17. |
  18. | Return a callable object that fetches the given attribute(s) from its operand.
  19. | After f = attrgetter('name'), the call f(r) returns r.name.
  20. | After g = attrgetter('name', 'date'), the call g(r) returns (r.name, r.date).
  21. | After h = attrgetter('name.first', 'name.last'), the call h(r) returns
  22. | (r.name.first, r.name.last).
  23. |
  24. | Methods defined here:
  25. |
  26. | __call__(self, /, *args, **kwargs)
  27. | Call self as a function.
  28. |
  29. | __getattribute__(self, name, /)
  30. | Return getattr(self, name).
  31. |
  32. | __new__(*args, **kwargs) from builtins.type
  33. | Create and return a new object. See help(type) for accurate signature.
  34. |
  35. | __reduce__(...)
  36. | Return state information for pickling
  37. |
  38. | __repr__(self, /)
  39. | Return repr(self).
  40. class itemgetter(builtins.object)
  41. | itemgetter(item, ...) --> itemgetter object
  42. |
  43. | Return a callable object that fetches the given item(s) from its operand.
  44. | After f = itemgetter(2), the call f(r) returns r[2].
  45. | After g = itemgetter(2, 5, 3), the call g(r) returns (r[2], r[5], r[3])
  46. |
  47. | Methods defined here:
  48. |
  49. | __call__(self, /, *args, **kwargs)
  50. | Call self as a function.
  51. |
  52. | __getattribute__(self, name, /)
  53. | Return getattr(self, name).
  54. |
  55. | __new__(*args, **kwargs) from builtins.type
  56. | Create and return a new object. See help(type) for accurate signature.
  57. |
  58. | __reduce__(...)
  59. | Return state information for pickling
  60. |
  61. | __repr__(self, /)
  62. | Return repr(self).
  63. class methodcaller(builtins.object)
  64. | methodcaller(name, ...) --> methodcaller object
  65. |
  66. | Return a callable object that calls the given method on its operand.
  67. | After f = methodcaller('name'), the call f(r) returns r.name().
  68. | After g = methodcaller('name', 'date', foo=1), the call g(r) returns
  69. | r.name('date', foo=1).
  70. |
  71. | Methods defined here:
  72. |
  73. | __call__(self, /, *args, **kwargs)
  74. | Call self as a function.
  75. |
  76. | __getattribute__(self, name, /)
  77. | Return getattr(self, name).
  78. |
  79. | __new__(*args, **kwargs) from builtins.type
  80. | Create and return a new object. See help(type) for accurate signature.
  81. |
  82. | __reduce__(...)
  83. | Return state information for pickling
  84. |
  85. | __repr__(self, /)
  86. | Return repr(self).
  87. FUNCTIONS
  88. __abs__ = abs(...)
  89. abs(a) -- Same as abs(a).
  90. __add__ = add(...)
  91. add(a, b) -- Same as a + b.
  92. __and__ = and_(...)
  93. and_(a, b) -- Same as a & b.
  94. __concat__ = concat(...)
  95. concat(a, b) -- Same as a + b, for a and b sequences.
  96. __contains__ = contains(...)
  97. contains(a, b) -- Same as b in a (note reversed operands).
  98. __delitem__ = delitem(...)
  99. delitem(a, b) -- Same as del a[b].
  100. __eq__ = eq(...)
  101. eq(a, b) -- Same as a==b.
  102. __floordiv__ = floordiv(...)
  103. floordiv(a, b) -- Same as a // b.
  104. __ge__ = ge(...)
  105. ge(a, b) -- Same as a>=b.
  106. __getitem__ = getitem(...)
  107. getitem(a, b) -- Same as a[b].
  108. __gt__ = gt(...)
  109. gt(a, b) -- Same as a>b.
  110. __iadd__ = iadd(...)
  111. a = iadd(a, b) -- Same as a += b.
  112. __iand__ = iand(...)
  113. a = iand(a, b) -- Same as a &= b.
  114. __iconcat__ = iconcat(...)
  115. a = iconcat(a, b) -- Same as a += b, for a and b sequences.
  116. __ifloordiv__ = ifloordiv(...)
  117. a = ifloordiv(a, b) -- Same as a //= b.
  118. __ilshift__ = ilshift(...)
  119. a = ilshift(a, b) -- Same as a <<= b.
  120. __imatmul__ = imatmul(...)
  121. a = imatmul(a, b) -- Same as a @= b.
  122. __imod__ = imod(...)
  123. a = imod(a, b) -- Same as a %= b.
  124. __imul__ = imul(...)
  125. a = imul(a, b) -- Same as a *= b.
  126. __index__ = index(...)
  127. index(a) -- Same as a.__index__()
  128. __inv__ = inv(...)
  129. inv(a) -- Same as ~a.
  130. __invert__ = invert(...)
  131. invert(a) -- Same as ~a.
  132. __ior__ = ior(...)
  133. a = ior(a, b) -- Same as a |= b.
  134. __ipow__ = ipow(...)
  135. a = ipow(a, b) -- Same as a **= b.
  136. __irshift__ = irshift(...)
  137. a = irshift(a, b) -- Same as a >>= b.
  138. __isub__ = isub(...)
  139. a = isub(a, b) -- Same as a -= b.
  140. __itruediv__ = itruediv(...)
  141. a = itruediv(a, b) -- Same as a /= b
  142. __ixor__ = ixor(...)
  143. a = ixor(a, b) -- Same as a ^= b.
  144. __le__ = le(...)
  145. le(a, b) -- Same as a<=b.
  146. __lshift__ = lshift(...)
  147. lshift(a, b) -- Same as a << b.
  148. __lt__ = lt(...)
  149. lt(a, b) -- Same as a<b.
  150. __matmul__ = matmul(...)
  151. matmul(a, b) -- Same as a @ b.
  152. __mod__ = mod(...)
  153. mod(a, b) -- Same as a % b.
  154. __mul__ = mul(...)
  155. mul(a, b) -- Same as a * b.
  156. __ne__ = ne(...)
  157. ne(a, b) -- Same as a!=b.
  158. __neg__ = neg(...)
  159. neg(a) -- Same as -a.
  160. __not__ = not_(...)
  161. not_(a) -- Same as not a.
  162. __or__ = or_(...)
  163. or_(a, b) -- Same as a | b.
  164. __pos__ = pos(...)
  165. pos(a) -- Same as +a.
  166. __pow__ = pow(...)
  167. pow(a, b) -- Same as a ** b.
  168. __rshift__ = rshift(...)
  169. rshift(a, b) -- Same as a >> b.
  170. __setitem__ = setitem(...)
  171. setitem(a, b, c) -- Same as a[b] = c.
  172. __sub__ = sub(...)
  173. sub(a, b) -- Same as a - b.
  174. __truediv__ = truediv(...)
  175. truediv(a, b) -- Same as a / b.
  176. __xor__ = xor(...)
  177. xor(a, b) -- Same as a ^ b.
  178. abs(...)
  179. abs(a) -- Same as abs(a).
  180. add(...)
  181. add(a, b) -- Same as a + b.
  182. and_(...)
  183. and_(a, b) -- Same as a & b.
  184. concat(...)
  185. concat(a, b) -- Same as a + b, for a and b sequences.
  186. contains(...)
  187. contains(a, b) -- Same as b in a (note reversed operands).
  188. countOf(...)
  189. countOf(a, b) -- Return the number of times b occurs in a.
  190. delitem(...)
  191. delitem(a, b) -- Same as del a[b].
  192. eq(...)
  193. eq(a, b) -- Same as a==b.
  194. floordiv(...)
  195. floordiv(a, b) -- Same as a // b.
  196. ge(...)
  197. ge(a, b) -- Same as a>=b.
  198. getitem(...)
  199. getitem(a, b) -- Same as a[b].
  200. gt(...)
  201. gt(a, b) -- Same as a>b.
  202. iadd(...)
  203. a = iadd(a, b) -- Same as a += b.
  204. iand(...)
  205. a = iand(a, b) -- Same as a &= b.
  206. iconcat(...)
  207. a = iconcat(a, b) -- Same as a += b, for a and b sequences.
  208. ifloordiv(...)
  209. a = ifloordiv(a, b) -- Same as a //= b.
  210. ilshift(...)
  211. a = ilshift(a, b) -- Same as a <<= b.
  212. imatmul(...)
  213. a = imatmul(a, b) -- Same as a @= b.
  214. imod(...)
  215. a = imod(a, b) -- Same as a %= b.
  216. imul(...)
  217. a = imul(a, b) -- Same as a *= b.
  218. index(...)
  219. index(a) -- Same as a.__index__()
  220. indexOf(...)
  221. indexOf(a, b) -- Return the first index of b in a.
  222. inv(...)
  223. inv(a) -- Same as ~a.
  224. invert(...)
  225. invert(a) -- Same as ~a.
  226. ior(...)
  227. a = ior(a, b) -- Same as a |= b.
  228. ipow(...)
  229. a = ipow(a, b) -- Same as a **= b.
  230. irshift(...)
  231. a = irshift(a, b) -- Same as a >>= b.
  232. is_(...)
  233. is_(a, b) -- Same as a is b.
  234. is_not(...)
  235. is_not(a, b) -- Same as a is not b.
  236. isub(...)
  237. a = isub(a, b) -- Same as a -= b.
  238. itruediv(...)
  239. a = itruediv(a, b) -- Same as a /= b
  240. ixor(...)
  241. a = ixor(a, b) -- Same as a ^= b.
  242. le(...)
  243. le(a, b) -- Same as a<=b.
  244. length_hint(...)
  245. length_hint(obj, default=0) -> int
  246. Return an estimate of the number of items in obj.
  247. This is useful for presizing containers when building from an
  248. iterable.
  249. If the object supports len(), the result will be
  250. exact. Otherwise, it may over- or under-estimate by an
  251. arbitrary amount. The result will be an integer >= 0.
  252. lshift(...)
  253. lshift(a, b) -- Same as a << b.
  254. lt(...)
  255. lt(a, b) -- Same as a<b.
  256. matmul(...)
  257. matmul(a, b) -- Same as a @ b.
  258. mod(...)
  259. mod(a, b) -- Same as a % b.
  260. mul(...)
  261. mul(a, b) -- Same as a * b.
  262. ne(...)
  263. ne(a, b) -- Same as a!=b.
  264. neg(...)
  265. neg(a) -- Same as -a.
  266. not_(...)
  267. not_(a) -- Same as not a.
  268. or_(...)
  269. or_(a, b) -- Same as a | b.
  270. pos(...)
  271. pos(a) -- Same as +a.
  272. pow(...)
  273. pow(a, b) -- Same as a ** b.
  274. rshift(...)
  275. rshift(a, b) -- Same as a >> b.
  276. setitem(...)
  277. setitem(a, b, c) -- Same as a[b] = c.
  278. sub(...)
  279. sub(a, b) -- Same as a - b.
  280. truediv(...)
  281. truediv(a, b) -- Same as a / b.
  282. truth(...)
  283. truth(a) -- Return True if a is true, False otherwise.
  284. xor(...)
  285. xor(a, b) -- Same as a ^ b.
  286. DATA
  287. __all__ = ['abs', 'add', 'and_', 'attrgetter', 'concat', 'contains', '...
  288. FILE
  289. c:\users\csw\miniconda2\envs\guanwang\lib\operator.py
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250
  • 251
  • 252
  • 253
  • 254
  • 255
  • 256
  • 257
  • 258
  • 259
  • 260
  • 261
  • 262
  • 263
  • 264
  • 265
  • 266
  • 267
  • 268
  • 269
  • 270
  • 271
  • 272
  • 273
  • 274
  • 275
  • 276
  • 277
  • 278
  • 279
  • 280
  • 281
  • 282
  • 283
  • 284
  • 285
  • 286
  • 287
  • 288
  • 289
  • 290
  • 291
  • 292
  • 293
  • 294
  • 295
  • 296
  • 297
  • 298
  • 299
  • 300
  • 301
  • 302
  • 303
  • 304
  • 305
  • 306
  • 307
  • 308
  • 309
  • 310
  • 311
  • 312
  • 313
  • 314
  • 315
  • 316
  • 317
  • 318
  • 319
  • 320
  • 321
  • 322
  • 323
  • 324
  • 325
  • 326
  • 327
  • 328
  • 329
  • 330
  • 331
  • 332
  • 333
  • 334
  • 335
  • 336
  • 337
  • 338
  • 339
  • 340
  • 341
  • 342
  • 343
  • 344
  • 345
  • 346
  • 347
  • 348
  • 349
  • 350
  • 351
  • 352
  • 353
  • 354
  • 355
  • 356
  • 357
  • 358
  • 359
  • 360
  • 361
  • 362
  • 363
  • 364
  • 365
  • 366
  • 367
  • 368
  • 369
  • 370
  • 371
  • 372
  • 373
  • 374
  • 375
  • 376
  • 377
  • 378
  • 379
  • 380
  • 381
  • 382
  • 383
  • 384
  • 385
  • 386
  • 387
  • 388
  • 389
  • 390
  • 391
  • 392
  • 393
  • 394

foldByKey(zeroValue, func, numPartitions=None, partitionFunc=)[source]

foldByKey的操作与fold几乎一样,只不过前者按键来分组,后者按分区分组,前者不同键不再进一步操作,后者不同分区结果还会进一步操作。foldByKey最终结果也是普通python对象,而不是rdd。一个键占一个元组的空间,存放在list中。

  1. >>> from operator import add
  2. >>> rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 1)])
  3. >>> rddFB=sorted(rdd.foldByKey(1, add).collect())
  4. >>> print(rdd.collect())
  5. #结果为:[('a', 1), ('b', 1), ('a', 1)]
  6. >>> print(rddFB)
  7. #结果为:[('a', 4), ('b', 2)]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

RDD.aggregate(zeroValue, seqOp, combOp)

aggregate与fold相似又很不同。 
seqOp操作会聚合各分区中的元素,然后combOp操作把所有分区的聚合结果再次聚合,两个操作的初始值都是zeroValue. seqOp的操作是遍历分区中的所有元素(T),zeroValue跟第一个T做操作,结果再作为与第二个T做操作的zeroValue,直到遍历完整个分区。combOp操作是把各分区聚合的结果,再聚合,zeroValue与第一个分区结果聚合,聚合结果相当于新的zeroValue,再与第二个分区结果聚合,一直进行下去。aggregate函数返回一个跟RDD不同类型的值。因此,需要一个操作seqOp来把分区中的元素T合并成一个U,另外一个操作combOp把所有U聚合。

  1. seqOp=(lambda x,y:(x[0]+y,x[1]+1))
  2. combOp=(lambda x,y:(x[0]+y[0],x[1]+y[1]))
  3. x=sc.parallelize([1,2,3,4,5,6],2)
  4. print(x.glom().collect())
  5. #结果为:[[1, 2, 3], [4, 5, 6]]
  6. y=x.aggregate((1,2),seqOp,combOp)
  7. print(y)
  8. #结果为:(24, 12)
  9. #计算过程如下:
  10. #(1,2)--》(1+1,2+1)-->(2+2,3+1)-->(4+3,4+1)-->(7,5);
  11. #(1,2)--》(1+4,2+1)-->(5+5,3+1)-->(10+6,4+1)-->(16,5);
  12. #(1,2)--》(1+7,2+5)-->(8+16,7+5)-->(24,12);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

RDD.aggregateByKey(zeroValue, seqFunc, combFunc, numPartitions=None, partitionFunc=)

aggregate是按分区进行,而aggregateByKey是按键来进行,但是zeroValue与aggregate中的用法很不一样,这里的zeroValue是一个值,它即可以跟这样键聚合,也可以跟那个键聚合,而且zeroValue必须与键内聚合时定义的形式一致。

  1. x=sc.parallelize([('B', 1), ('B', 2), ('B', 3), ('A', 4), ('A', 5),('A', 6)])
  2. zeroValue=[7]
  3. mergeVal=(lambda aggregated,el:aggregated+[(el,el**2)])
  4. mergeComb=(lambda agg1,agg2:agg1+agg2)
  5. y=x.aggregateByKey(zeroValue,mergeVal,mergeComb)
  6. print(x.collect())
  7. #结果为:[('B', 1), ('B', 2), ('B', 3), ('A', 4), ('A', 5), ('A', 6)]
  8. print(y.collect())
  9. #结果为:[('A', [7, (4, 16), (5, 25), (6, 36)]), ('B', [7, (1, 1), (2, 4), (3, 9)])]
  10. #计算过程如下:
  11. #('B', [7]);('B', (1,1**2))-->('B', [7,(1,1)])-->('B', [7,(1,1)]);('B', (2,2**2))-->('B', [7,(1,1),(2,4)])...-->[('B', [7, (1, 1), (2, 4), (3, 9)])]
  12. 同时'A'也进行这样的过程
  13. #[('B', [7, (1, 1), (2, 4), (3, 9)])];[('A', [7, (4, 16), (5, 25), (6, 36)])]-->[('A', [7, (4, 16), (5, 25), (6, 36)]), ('B', [7, (1, 1), (2, 4), (3, 9)])]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

combineByKey(createCombiner, mergeValue, mergeCombiners, numPartitions=None, partitionFunc=)

与foldByKey()的做法很相似,但是它没有初始值,而且可以定义多个环节的操作函数,所以功能会更加灵活。 
createCombiner: V => C ,这个函数把各元素的值作为参数,此时我们可以对其做些附加操作(类型转换)并把它返回 (这一步类似于初始化操作),对当前值作一个变换,相当于map内部的函数。 
mergeValue: (C, V) => C,该函数把元素多个元素值合并到一个元素值C(createCombiner)上 (这个操作在每个键内进行),这一步是定义怎么来合并同一个键对应的值。 
mergeCombiners: (C, C) => C,该函数把2个元素C合并 (这个操作在不同键间进行),在不同键之间进行合并

  1. sc=SparkContext()
  2. x=sc.parallelize([('a',1),('a',2),('b',1),('b',3),('c',5),('c',6)])
  3. def to_list(a):
  4. return [a]
  5. def append(a,b):
  6. a.append(b)
  7. return a
  8. def extend(a,b):
  9. a.extend(b)
  10. return a
  11. print(x.collect())
  12. print(x.combineByKey(to_list,append,extend).collect())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

结果如下:

  1. [('a', 1), ('a', 2), ('b', 1), ('b', 3), ('c', 5), ('c', 6)]
  2. [('c', [5, 6]), ('b', [3, 1]), ('a', [1, 2])]
  3. #计算过程如下:
  4. #('a', 1)-->('a', [1]);...;('c', 6)-->('c', [6])
  5. #('a', [1]);('a', [2])-->('a', [1,2]);...;-->('c', [5]);('c', [6])-->('c', [5,6])
  6. #('a', [1,2]);('b', [3, 1]);('c', [5,6])-->[('a', [1,2]),('b', [3, 1]),('c', [5,6])];当然这一结果并没有立即计算出来,而是定义了这种操作方法。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

rdd.sortByKey()

首先rdd的元素需要为键值对,然后sortByKey()就能实现对每个元素按键的大小来排序

  1. x=sc.parallelize([('B',1),('A',2),('C',3)])
  2. y=x.sortByKey()
  3. print(x.collect())
  4. print(y.collect())
  5. #结果为
  6. #[('B', 1), ('A', 2), ('C', 3)]
  7. #[('A', 2), ('B', 1), ('C', 3)]
  8. #从结果可以看到默认是升序排列
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

rdd.sortBy()

  1. x=sc.parallelize(['Cut','Alice','Bat'])
  2. y=sc.parallelize([('a',2),('b',1),('c',0)])
  3. def f(x):
  4. return x[1]
  5. xS=x.sortBy(f)
  6. yS=y.sortBy(f)
  7. print(x.collect())
  8. print(xS.collect())
  9. print(y.collect())
  10. print(yS.collect())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

结果如下:

  1. ['Cut', 'Alice', 'Bat']
  2. ['Bat', 'Alice', 'Cut']
  3. [('a', 2), ('b', 1), ('c', 0)]
  4. [('c', 0), ('b', 1), ('a', 2)]
  • 1
  • 2
  • 3
  • 4

从上面可以看到,sortBy与sortByKey完成相似的功能,只不过sortBy比sortByKey更加的灵活,可以按不同维度来排序。

rdd.glom()

glom()定义了将原rdd相同分区的元素放在一个列表中构成新的rdd的转换操作。

rdd.collect()

返回由rdd元素组成的列表

rdd.collectAsMap()

将键值对形式的RDD以字典的形式返回给master 
** 
Note: 
this method should only be used if the resulting data is expected to be small, as all the data is loaded into the driver’s memory. **

m=sc.parallelize([(1,2),(3,4)]).collectAsMap()
  • 1

结果如下:

{1: 2, 3: 4}
  • 1

rdd.stats()

lookup(key)[source]

Return the list of values in the RDD for key key. This operation is done efficiently if the RDD has a known partitioner by only searching the partition that the key maps to.
  • 1
  • 2

rdd.stats()

计算rdd中全体元素的均值、方差、最大值、最小值和个数的信息

  1. samp=sc.parallelize(1,2,3,4).stats()
  2. print(samp)
  • 1
  • 2

结果如下:

(count: 4, mean: 2.5, stdev: 1.11803398875, max: 4.0, min: 1.0)
  • 1

stats得到的对象为’StatCounter’ object

rdd.max()

计算rdd所有元素中的最大值。

rdd.first()[source]

计算rdd所有元素中第一个元素(未排序)。

  1. sc.parallelize([5, 3, 4]).first()
  2. #结果为:5
  • 1
  • 2

rdd.take(num)[source]

计算rdd所有元素中最前面的几个元素。

rdd.takeOrdered(num, key=None)

计算rdd所有元素中按升序排列后的最前面的几个元素。通过key可以实现降序或其他操作。

  1. inputData=sc.parallelize([10, 1, 2, 9, 3, 4, 5, 6, 7])
  2. inputTakeOrdered=inputData.takeOrdered(num=6)
  3. #结果为[1, 2, 3, 4, 5, 6]
  4. inputTakeOrdered2=inputData.takeOrdered(num=6,key=lambda x:-x)
  5. print(inputTakeOrdered2)
  6. #结果为:[10, 9, 7, 6, 5, 4]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

rdd.top(num, key=None)[source]

计算rdd所有元素按降序排列后最顶部的几个元素。如果元素为数据型或可以转换为数值型的,就是值最大的几个元素。

rdd.min ()

计算rdd所有元素中的最小值。

rdd.mean()

计算rdd所有元素均值

  1. mean_test=sc.parallelize([1,2,3,4]).mean()
  2. print(mean_test)
  • 1
  • 2

结果如下:

2.5
  • 1

rdd.variance()

计算rdd元素的方差,# divides by N

rdd.stdev()

计算标准差, # divides by N

  1. stdev_test=sc.parallelize([1,2,3,4]).stdev()
  2. print(stdev_test)
  • 1
  • 2

结果如下:

1.11803398875
  • 1

rdd.sampleVariance()

计算rdd元素的方差,# divides by N-1

rdd.sampleStdev()

计算标准差, # divides by N-1

rdd.sum ()

计算rdd所有元素之和

rdd.count()

计算rdd所有元素个数

rdd.countByValue()

统计rdd所有元素中各元素的个数

  1. inputData=sc.parallelize([1,3,1,2,3])
  2. inputCountBV=inputData.countByValue()
  3. print(inputCountBV)
  4. #结果为:defaultdict(<class 'int'>, {1: 2, 2: 1, 3: 2})
  • 1
  • 2
  • 3
  • 4

rdd.countByKey()

按键为组统计rdd元素的个数

  1. >>> rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 1)])
  2. >>> sorted(rdd.countByKey().items())
  3. [('a', 2), ('b', 1)]
  • 1
  • 2
  • 3

rdd.histogram(buckets)

对rdd中的元素进行频数统计,统计区间有两种,一种是给出段数,一种是直接给出区间。需要注意的是:The buckets are all open to the right except for the last which is closed. e.g. [1,10,20,50] means the buckets are [1,10) [10,20) [20,50], which means 1<=x<10, 10<=x<20, 20<=x<=50。返回的结果为普通python对象list,包含:对应的区间和频率数。

  1. inputData=sc.parallelize([1,3,1,2,3])
  2. inputHB1=inputData.histogram(buckets=2)
  3. print(inputHB1)
  4. #结果:([1, 2, 3], [2, 3])
  5. inputHB2=inputData.histogram([0,0.5,1,1.5,2,2.5,3,3.5])
  6. print(inputHB2)
  7. #结果:([0, 0.5, 1, 1.5, 2, 2.5, 3, 3.5], [0, 0, 2, 0, 1, 0, 2])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

pipe(command, env=None, checkCode=False)

通过管道向后面环节输出command处理过的结果,具体功能就体现在command,command为linux命令。 
比如打印结果

  1. print(sc.parallelize(['1', '2', '', '3']).pipe('cat').collect())#pipe函数中的'cat'为linux命令,表示打印内容。
  2. #结果如下:
  3. #['1', '2', '', '3']
  • 1
  • 2
  • 3

再比如正则匹配来筛选

  1. >>> x=sc.parallelize(['A','Ba','C','DA'])
  2. >>> y=x.pipe('grep -i "A"')
  3. >>> print(x.collect())
  4. >>> print(y.collect())
  5. #结果为:['A', 'Ba', 'C', 'DA']
  6. #['A', 'Ba', 'DA']
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

rdd.filter(f)

  1. x=sc.parallelize([1,2,3],2)
  2. xFt=x.filter(lambda x:x%2==1)#过滤掉被2整除的数
  3. print(x.collect())
  4. print(xFt.collect())
  5. #结果为:
  6. #[1, 2, 3]
  7. #[1, 3]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

distinct()

对RDD中的元素进行去重

  1. >>> sorted(sc.parallelize([1, 1, 2, 3]).distinct().collect())
  2. [1, 2, 3]
  • 1
  • 2
  1. x=sc.parallelize([('a',1),('b',2),('a',3),('b',2)])
  2. xDist=x.distinct()#元素本身必须是可hash映射的,否则会出错,比如列表就不行,而元组可以,同时完全一样才会被过滤掉
  3. print(x.collect())
  4. print(xDist.collect())
  5. #结果如下:
  6. #[('a', 1), ('b', 2), ('a', 3), ('b', 2)]
  7. #[('b', 2), ('a', 3), ('a', 1)]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

sample(withReplacement, fraction, seed=None)

按一定比例对原样本进行抽样,如何控制抽样后的元素个数还要研究一下。

  1. x=sc.parallelize(range(7))
  2. print('x=%s'%(x.collect()))
  3. xSamList=[x.sample(withReplacement=False,fraction=0.5) for i in range(5)]#xSamList这个列表的元素是rdd,而每个rdd又是由一系列元素构成。
  4. for i in range(len(xSamList)):
  5. print('Sample%s:y=%s'%(i,xSamList[i].collect()))
  6. #结果如下:
  7. #x=[0, 1, 2, 3, 4, 5, 6]
  8. #Sample0:y=[2, 3, 5]
  9. #Sample1:y=[0, 2, 4, 6]
  10. #Sample2:y=[0, 3, 4, 5, 6]
  11. #Sample3:y=[0, 2, 4, 5]
  12. #Sample4:y=[3]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

rdd.takeSample(withReplacement, num, seed=None)

以指定的随机种子随机抽样出数量为num的数据,withReplacement表示是抽出的数据是否放回,true为有放回的抽样,false为无放回的抽样 
(例如):从RDD中随机且有放回的抽出num个数据,随机种子值为3(即可能以1 2 3的其中一个起始值) 
takeSample()函数和sample函数是一个原理,但是不使用相对比例采样,而是按设定的采样个数进行采样,同时返回结果不再是RDD,而是相当于对采样后的数据进行collect(),返回结果的集合为单机的数组。 
这里写图片描述

  1. >>> rdd = sc.parallelize(range(0, 10))
  2. >>> print(rdd.collect())
  3. [0, 1, 2, 3, 4, 5, 6, 7, 8, 9]
  4. >>> print(rdd.takeSample(True, 20, 1))
  5. [4, 0, 9, 2, 7, 6, 4, 9, 1, 3, 5, 0, 9, 1, 5, 6, 7, 7, 1, 7]
  6. #结果为20,因为是有放回取样
  7. >>> print(rdd.takeSample(False, 5, 2))
  8. [4, 1, 6, 2, 3]
  9. >>> print(rdd.takeSample(False, 15, 3))
  10. [1, 5, 7, 6, 0, 3, 8, 9, 4, 2]
  11. #总共10个元素无放回抽15,顶了天也就是把所有的元素都取回来。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

rdd.sampleByKey(withReplacement, fractions, seed=None)

按照key来取样

rdd1.union(rdd2)

合并不同rdd中的元素,不去重

  1. x=sc.parallelize(range(4))
  2. y=sc.parallelize(range(3,6))
  3. z=sc.parallelize([('a',1),('b',2)])
  4. u1=x.union(y)
  5. u2=x.union(z)
  6. print(x.collect())
  7. print(y.collect())
  8. print(u1.collect())
  9. print(u2.collect())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

结果如下:

  1. [0, 1, 2, 3]
  2. [3, 4, 5]
  3. [0, 1, 2, 3, 3, 4, 5]
  4. [0, 1, 2, 3, ('a', 1), ('b', 2)]
  • 1
  • 2
  • 3
  • 4

可以看到union即可以合并相同的元素类型,也可以合并不同元素类型,对元素不去重。

rdd1.intersection(rdd2)

获取两个rdd共同的元素

  1. x=sc.parallelize(range(4))
  2. y=sc.parallelize(range(3,6))
  3. z=sc.parallelize([('a',1),('b',2)])
  4. i1=x.intersection(y)
  5. i2=x.intersection(z)
  6. print(x.collect())
  7. print(y.collect())
  8. print(i1.collect())
  9. print(i2.collect())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

结果如下:

  1. [0, 1, 2, 3]
  2. [3, 4, 5]
  3. [3]
  4. []
  • 1
  • 2
  • 3
  • 4

rdd.subtract(other, numPartitions=None)

移除第一个rdd中同时存在第二个rdd中的元素。

  1. x=sc.parallelize([('C',4),('B',3),('A',2),('A',1)])
  2. y=sc.parallelize([('C',8),('A',2),('D',1)])
  3. z=x.subtract(y)
  4. print(x.collect())
  5. #结果为:[('C', 4), ('B', 3), ('A', 2), ('A', 1)]
  6. print(y.collect())
  7. #结果为:[('C', 8), ('A', 2), ('D', 1)]
  8. print(z.collect())
  9. #结果为:[('A', 1), ('C', 4), ('B', 3)]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

rdd.subtractByKey(other, numPartitions=None)

如果第一个rdd的元素其键存在第二个rdd中的,则移除这样的元素,获得新的rdd。

  1. x=sc.parallelize([('C',1),('B',2),('A',3),('A',4)])
  2. y=sc.parallelize([('A',5),('D',6),('A',7),('D',8)])
  3. z=x.subtractByKey(y)
  4. print(x.collect())
  5. #结果为:[('C', 1), ('B', 2), ('A', 3), ('A', 4)]
  6. print(y.collect())
  7. #结果为:[('A', 5), ('D', 6), ('A', 7), ('D', 8)]
  8. print(z.collect())
  9. #结果为:[('C', 1), ('B', 2)]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

rdd.cartesian(other)

计算一个rdd与另一个rdd的迪卡尔积,结果中的元素为(a,b),其中 a,b分别是第一个rdd和第二个rdd中的元素。

  1. x=sc.parallelize([('a',1),'b'])
  2. y=sc.parallelize(['c',['d',2]])
  3. z=x.cartesian(y)
  4. print(x.collect())
  5. print(y.collect())
  6. print(z.collect())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

结果如下:

  1. [('a', 1), 'b']
  2. ['c', ['d', 2]]
  3. [(('a', 1), 'c'), (('a', 1), ['d', 2]), ('b', 'c'), ('b', ['d', 2])]
  • 1
  • 2
  • 3

rdd1.join(rdd2)

跟mysql中的leftjoin有点像,但有键的概念。 
用rdd1中的键去rdd2中寻找与之键相同的元组,然后将两者的放在一个元组构成与原键对应的新的值,形式为 (k, (v1, v2));如果在rdd2中找不到相同的键,那么为空,不出现在最终的结果里。

  1. x = sc.parallelize([("a", 1), ("b", 4)])
  2. y = sc.parallelize([("a", 2), ("a", 3)])
  3. z=x.join(y)
  4. print(x.collect())
  5. #结果为[('a', 1), ('b', 4)]
  6. print(y.collect())
  7. #结果为[('a', 2), ('a', 3)]
  8. print(z.collect())
  9. #结果为[('a', (1, 2)), ('a', (1, 3))]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

rdd1.leftOuterJoin(rdd2, numPartitions=None)

与join功能相似,不同的是如果在第二rdd找不到相同的key,则其值用None代替。

  1. x = sc.parallelize([("a", 1), ("b", 4)])
  2. y = sc.parallelize([("a", 2), ("a", 3)])
  3. z=x.leftOuterJoin(y)
  4. print(x.collect())
  5. #结果为[('a', 1), ('b', 4)]
  6. print(y.collect())
  7. #结果为[('a', 2), ('a', 3)]
  8. print(z.collect())
  9. #结果为[('b', (4, None)), ('a', (1, 2)), ('a', (1, 3))]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

rdd1.rightOuterJoin(rdd2, numPartitions=None)

就是用第二个rdd的key去第一个rdd中寻找,在value组合的时候还是第一个rdd的值在前,第二个rdd的值在后。其他与leftOuterJoin完全一样。

  1. x = sc.parallelize([("a", 1), ("b", 4)])
  2. y = sc.parallelize([("a", 2), ("a", 3)])
  3. z=x.rightOuterJoin(y)
  4. print(x.collect())
  5. #结果为[('a', 1), ('b', 4)]
  6. print(y.collect())
  7. #结果为[('a', 2), ('a', 3)]
  8. print(z.collect())
  9. #结果为[('a', (1, 3)), ('a', (1, 2))]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

rdd.cogroup(other,numPartitions=none)

先在rdd内部按键将值编进一个可迭代序列;然后将一个rdd或另一个rdd中的键作为元组的第一个元素,双方与该键对应的迭代序列组成的元组作为第二个元素,如果某一方中不存在与该键对应的值,则元组的对应位置用空列表表示。形成这样一个按键组合双方值的新rdd。

  1. x=sc.parallelize([('C',4),('B',(3,3)),('A',2),('A',(1,1))])
  2. y=sc.parallelize([('A',8),('B',7),('A',6),('D',(5,5))])
  3. z=x.cogroup(y)
  4. print(x.collect())
  5. #结果为:[('C', 4), ('B', (3, 3)), ('A', 2), ('A', (1, 1))]
  6. print(y.collect())
  7. #结果为:[('A', 8), ('B', 7), ('A', 6), ('D', (5, 5))]
  8. print(z.collect())
  9. #结果为:[('A', (<pyspark.resultiterable.ResultIterable object at 0x7fbda3be4908>, <pyspark.resultiterable.ResultIterable object at 0x7fbda3be4b70>)), ('C', (<pyspark.resultiterable.ResultIterable object at 0x7fbda3be4be0>, <pyspark.resultiterable.ResultIterable object at 0x7fbda3be4c88>)), ('B', (<pyspark.resultiterable.ResultIterable object at 0x7fbda3be4c50>, <pyspark.resultiterable.ResultIterable object at 0x7fbda3be4cf8>)), ('D', (<pyspark.resultiterable.ResultIterable object at 0x7fbda3be4c18>, <pyspark.resultiterable.ResultIterable object at 0x7fbda3be4cc0>))]
  10. #下面将pyspark.resultiterable.ResultIterable object 转换出来
  11. ResultIterableToList=[]
  12. for key,value in z.collect():
  13. ResultIterableToList.append((key,[list(i) for i in value]))
  14. print(ResultIterableToList)
  15. #结果为:[('A', [[2, (1, 1)], [8, 6]]), ('C', [[4], []]), ('B', [[(3, 3)], [7]]), ('D', [[], [(5, 5)]])]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

rdd.groupWith(other, *others)

groupWith是cogroup的增强版,可以同时处理多个rdd.

2、运行过程中的一些错误

2.1、

Exception: Randomness of hash of string should be disabled via PYTHONHASHSEED
  • 1

网上的解释

  1. Since Python 3.2.3+ hash of str, byte and datetime objects in Python is salted using random value to prevent certain kinds of denial-of-service attacks. It means that hash values are consistent inside single interpreter session but differ from session to session. PYTHONHASHSEED sets RNG seed to provide a consistent value between session.
  2. You can easily check this in your shell. If PYTHONHASHSEED is not set you'll get some random values:
  • 1
  • 2
  • 3

大致意思是python3以上版本中,出于安全的考虑,在做hash映射的时候,对于字符串、字节和时间对象,即使是同一个值,不同时候映射值也不一样。这就会造成不同时候不同机器的映射关系不固定。解析就会出现问题。 
解决方法:在不同机器上通过设置PYTHONHASHSEED将映射关系固定下来。

  1. #PYTHONHASHSEED的具体值自己随机选取,下面的方法还没验证
  2. # Set PYTHONHASHSEED locally
  3. echo "export PYTHONHASHSEED=0" >> /root/.bashrc
  4. source /root/.bashrc
  5. # Set PYTHONHASHSEED on all slaves
  6. pssh -h /root/spark-ec2/slaves 'echo "export PYTHONHASHSEED=0" >> /root/.bashrc'
  7. # Restart all slaves
  8. sh /root/spark/sbin/stop-slaves.sh
  9. sh /root/spark/sbin/start-slaves.sh
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

同时还需要配置 Spark ./conf文件夹下spark-defaults.conf,将spark.executorEnv.PYTHONHASHSEED 0#具体值可以自己设置加入到上面的配置文件中。 
2.2、

AttributeError: 'NoneType' object has no attribute '_jvm'
  • 1

原因可能是对象为空

3、spark中如何找到使用中位数

来源 
解决方案 
Spark 2.0+: 
Python: 
df.approxQuantile(“x”, [0.5], 0.25) 
Scala: 
df.stat.approxQuantile(“x”, Array(0.5), 0.25) 
where the last parameter is a relative error. The lower the number the more accurate results and more expensive computation. 
Spark < 2.0 
如果数据量比较小,可如下操作:

  1. import numpy as np
  2. np.random.seed(323)
  3. rdd = sc.parallelize(np.random.randint(1000000, size=700000))
  4. np.median(rdd.collect())
  • 1
  • 2
  • 3
  • 4

数据量比较大时:

  1. from numpy import floor
  2. import time
  3. def quantile(rdd, p, sample=None, seed=None):
  4. """Compute a quantile of order p ∈ [0, 1]
  5. :rdd a numeric rdd
  6. :p quantile(between 0 and 1)
  7. :sample fraction of and rdd to use. If not provided we use a whole dataset
  8. :seed random number generator seed to be used with sample
  9. """
  10. assert 0 <= p <= 1
  11. assert sample is None or 0 < sample <= 1
  12. seed = seed if seed is not None else time.time()
  13. rdd = rdd if sample is None else rdd.sample(False, sample, seed)
  14. rddSortedWithIndex = (rdd.
  15. sortBy(lambda x: x).
  16. zipWithIndex().
  17. map(lambda (x, i): (i, x)).
  18. cache())
  19. n = rddSortedWithIndex.count()
  20. h = (n - 1) * p
  21. rddX, rddXPlusOne = (
  22. rddSortedWithIndex.lookup(x)[0]
  23. for x in int(floor(h)) + np.array([0L, 1L]))
  24. return rddX + (h - floor(h)) * (rddXPlusOne - rddX)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

Language independent (Hive UDAF):

If you use HiveContext you can also use Hive UDAFs. With integral values:

  1. rdd.map(lambda x: (float(x), )).toDF(["x"]).registerTempTable("df")
  2. sqlContext.sql("SELECT percentile_approx(x, 0.5) FROM df")
  • 1
  • 2
  • 3

With continuous values:

sqlContext.sql("SELECT percentile(x, 0.5) FROM df")
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/524232
推荐阅读
相关标签
  

闽ICP备14008679号