当前位置:   article > 正文

Spark累加器、广播变量、案例需求

Spark累加器、广播变量、案例需求

1. 累加器

累加器:分布式共享只写变量

考虑如下计算RDD中数据的和:

  1. val rdd = sc.makeRDD(List(1, 2, 3, 4))
  2. var sum = 0
  3. rdd.foreach(
  4. num => {
  5. sum += num
  6. }
  7. )
  8. println("sum = " + sum)

预期结果10,但其实不是

foreach里面的函数是在Executor节点分布式执行的,所以多个分布式节点来同时修改sum,但是这个sum是Driver传给Executor的,各个Executor执行完并不会将sum返回给Driver,所以Driver端执行打印sum,sum依然为0。如果需要将最终的计算结果返回给Driver,就要使用到累加器变量。

累加器用来把Executor端变量信息聚合到Driver端。在Driver程序中定义的累加器变量,在Executor端会得到这个变量的一个新的副本,执行任务更新完这个副本之后,传回Driver端进行聚合。

使用累加器:

  1. val rdd = sc.makeRDD(List(1, 2, 3, 4))
  2. val sum = sc.longAccumulator("sum")
  3. rdd.foreach(num => {
  4. sum.add(num)
  5. })
  6. println("sum = " + sum.value)

如果转换算子中使用了累加器,最终没有调用行动算子,那么实际也不会执行计算,例如下面代码sum依然为0 

  1. val rdd = sc.makeRDD(List(1, 2, 3, 4))
  2. val sum = sc.longAccumulator("sum")
  3. rdd.map(num => {
  4. sum.add(num)
  5. num
  6. })
  7. println("sum = " + sum.value)

注意,使用累加器最终执行行动算子不止一次,可能最终结果不符合预期

  1. val rdd = sc.makeRDD(List(1, 2, 3, 4))
  2. val sum = sc.longAccumulator("sum")
  3. val mapRDD = rdd.map(num => {
  4. sum.add(num)
  5. num
  6. })
  7. mapRDD.collect()
  8. mapRDD.collect()
  9. println("sum = " + sum.value)

所以一般累加器需要放在行动算子里进行操作

使用累加器实现WordCount,以避免Shuffle操作。首先定义一个自定义累加器,以实现map的累加(因为Spark中只有List集合的累加)

  1. // AccumulatorV2泛型:IN:输入类型; OUT:输出类型
  2. class MyAccumulator extends AccumulatorV2[String, mutable.Map[String, Long]] {
  3. private var wcMap = mutable.Map[String, Long]
  4. // 判断是否是初始状态
  5. override def isZero : Boolean = {
  6. wcMap.isEmpty
  7. }
  8. override def copy() : AccumulatorV2[String, mutable.Map[String, Long]] = {
  9. new MyAccumulator()
  10. }
  11. override def reset() : Unit = {
  12. wcMap.clear()
  13. }
  14. // 累加函数,每新来一个输入,如何累加
  15. override def add(word : String) : Unit = {
  16. val newCnt = wcMap.getOrElse(word, 0L) + 1
  17. wcMap.update(word, newCnt);
  18. }
  19. // 合并函数,由Driver执行,这里本质是两个map的合并
  20. override def merge(other : AccumulatorV2[String, mutable.Map[String, Long]]) : Unit = {
  21. val map1 = wcMap
  22. val map2 = other
  23. map2.foreach{
  24. case(word, count) => {
  25. val newCnt = map1.getOrElse(word, 0L) + count
  26. map1.update(word, newCnt)
  27. }
  28. }
  29. }
  30. override def value : mutable.Map[String, Long] = {
  31. wcMap
  32. }
  33. }
  1. val rdd = sc.makeRDD(List("hello", "spark", "hello"))
  2. val myAcc = sc.newMyAccumulator()
  3. sc.register(myAcc, "wordCountAcc")
  4. rdd.foreach(word => {
  5. myAcc.add(word)
  6. })
  7. println(myAcc.value)

2. 广播变量

累加器:分布式共享只读变量

如果想实现两个rdd的相同key的value连接起来,一般会想到join算子,但是join是笛卡尔乘积,且存在shuffle,严重影响性能。可采用如下代码实现类似功能:

  1. val rdd = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3)))
  2. val map = mutable.Map(("a", 4), ("b", 5), ("c", 6))
  3. rdd.map {
  4. case(w, c) => {
  5. val l : Int = map.getOrElse(w, 0)
  6. (w, (c, l))
  7. }
  8. }.collect.foreach(println)

上述代码存在一个问题,map算子内的函数是在Executor内执行的(具体来说是Executor里的task执行的),里面用到了map这份数据,如果map很大,那么每个Executor的每个task都会包含这份大数据,非常占用内存,影响性能。于是引入了广播变量的概念,将这种数据存放在每一个Executor的内存中,该Executor中的各个task共享这个只读变量:

  1. val rdd = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3)))
  2. val map = mutable.Map(("a", 4), ("b", 5), ("c", 6))
  3. val bc : Broadcast[mutable.Map[String, Int]] = sc.broadcast(map)
  4. rdd1.map {
  5. case(w, c) => {
  6. val l : Int = bc.value.getOrElse(w, 0)
  7. (w, (c, l))
  8. }
  9. }.collect.foreach(println)

3. 案例需求

1)已经从原始日志文件中读出了商品的点击数量rdd、下单数量rdd、支付数量rdd,都是(商品id, cnt)的形式,需要将这三种rdd组合成(商品id, (点击数量, 下单数量, 支付数量))的rdd,并且依次按照点击数量、下单数量、 支付数量排序取前十。

很自然地想到组合rdd的算子join,但是join只能组合相同的key,如果一个商品只有点击没有下单,那么使用join是不会出现在最终结果的,同理leftOuterJoin和rightOuterJoin也是类似的,不能实现相应的功能。因此只有cogroup算子满足要求,cogroup = connect + group。(join和cogroup算子的功能示例参见:RDD算子介绍(三)

  1. val cogroupRDD : RDD[(String, (Iterable[Int], Iterable[Int], Iterable[Int]))]= clickRDD.cogroup(orderRDD, payRDD)
  2. val resultRDD = cogroupRDD.mapValues{
  3. case(clickIter, orderIter, payIter) => {
  4. var clickCnt = 0
  5. val iter1 = clickIter.iterator
  6. if (iter1.hasNext) {
  7. clickCnt = iter1.next()
  8. }
  9. var orderCnt = 0
  10. val iter2 = orderIter.iterator
  11. if (iter2.hasNext) {
  12. orderCnt = iter2.next()
  13. }
  14. var payCnt = 0
  15. val iter3 = payIter.iterator
  16. if (iter3.hasNext) {
  17. payCnt = iter1.next()
  18. }
  19. (clickCnt, orderCnt, payCnt)
  20. }
  21. }
  22. resultRDD.sortBy(_._2, false).take(10).foreach(println)

 上述实现方式使用了cogroup算子,该算子可能存在shuffle,且该算子不常用,可以采用另外一种方式实现。首先将商品的点击数量rdd、下单数量rdd、支付数量rdd转换为(商品id, (clickCnt, orderCnt, payCnt))的形式,然后进行union,最后进行聚合。

  1. val rdd1 = clickRDD.map {
  2. case (id, cnt) => {
  3. (id, (cnt, 0, 0)
  4. }
  5. }
  6. val rdd2 = orderRDD.map {
  7. case (id, cnt) => {
  8. (id, (0, cnt, 0)
  9. }
  10. }
  11. val rdd3 = payRDD.map {
  12. case (id, cnt) => {
  13. (id, (0, 0, cnt)
  14. }
  15. }
  16. val rdd : RDD[(String, (Int, Int, Int))] = rdd1.union(rdd2).union(rdd3)
  17. val resultRDD = rdd.reduceByKey((t1, t2) => {
  18. (t1._1 + t2._1, t1._2 + t2._2, t3._3 + t3._3)
  19. })
  20. resultRDD.sortBy(_._2, false).take(10).foreach(println)

上述代码使用了reduceByKey,还是会有shuffle操作,要完全避免shuffle操作,可以使用foreach算子,如果要使用foreach算子,就必须使用累加器了。这个累加器的作用就是遍历原始数据,按照商品id进行分组,对商品的用户行为类型(点击、下单、支付)对进行数量统计。可以将商品的用户行为(点击、下单、支付)数量封装成一个样例类HotCatagory,然后这个累加器的输入就是商品id+行为类型(点击、下单、支付),输出就是这个样例类的集合。具体实现过程参考https://www.bilibili.com/video/BV11A411L7CK?p=116&spm_id_from=pageDriver&vd_source=23ddeeb1fb342c5293413f7b87367160​​​​​​​

2)统计页面的跳转率。所谓某个页面A到某个页面B的跳转率,就是页面A到页面B的次数/页面A的点击次数。首先统计各个页面的点击次数,数据结构为map,作为分母。对于分子,需要按照sessionId进行分组,然后按照时间排序,这样才能得到各个用户浏览页面的顺序,然后转换数据结构,统计各个页面到其他页面的跳转次数。

  1. actionDataRDD.cache()
  2. // 分母
  3. val pageIdToCountMap : Map[Long, Long] = actionDataRDD.map(action => {
  4. (action.page_id, 1L)
  5. }).reduceByKey(_+_).collect.toMap
  6. val sessionRDD : RDD[(String, Iterable[UserVisitAction])] = actionDataRDD.groupBy(_.session_id)
  7. val mvRDD : RDD[(String, List[((Long, Long), Int)])] = sessionRDD.mapValues(
  8. iter => {
  9. val sortList : List[UserVisitAction] = iter.toList.sortBy(_.action_time)
  10. val flowIds : List[Long] = sortList.map(_.page_id)
  11. val pageFlowIds : List[(Long, Long)] = flowIds.zip(flowIds.tail)
  12. pageFlowIds.map(t=> (t, 1))
  13. }
  14. )
  15. // 分子
  16. val dataRDD = mvRDD.map(_._2).flatMap(list=>list).reduceByKey(_+_)
  17. dataRDD.foreach {
  18. case((page1, page2), sum) => {
  19. val cnt : Long = pageIdToCountMap.getOrElse(page1, 0L)
  20. println(s"页面${page1}跳转页面${page2}的转换率为" + (sum.toDouble / cnt))
  21. }
  22. }
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/716230
推荐阅读
相关标签
  

闽ICP备14008679号