当前位置:   article > 正文

【Flink实战系列】Flink累加器的使用(accumulator)_flink accumulator

flink accumulator

Flink的Accumulator即累加器,与Saprk Accumulator 的应用场景差不多,都能很好地观察task在运行期间的数据变化
可以在Flink job任务中的算子函数中操作累加器,但是只能在任务执行结束之后才能获得累加器的最终结果。spark的累加器用法.

Flink中累加器的用法非常的简单:

1:创建累加器:      val acc = new IntCounter();

2:注册累加器:      getRuntimeContext().addAccumulator("accumulator", acc );

3:使用累加器:       this.acc.add(1);

4:获取累加器的结果:  myJobExecutionResult.getAccumulatorResult("accumulator")

下面看一个完整的demo:

  1. package flink
  2. import org.apache.flink.api.common.accumulators.IntCounter
  3. import org.apache.flink.api.common.functions.RichMapFunction
  4. import org.apache.flink.api.scala.ExecutionEnvironment
  5. import org.apache.flink.api.scala._
  6. import org.apache.flink.configuration.Configuration
  7. /**
  8. * Flink的累加器使用
  9. */
  10. object flinkBatch {
  11. de
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/696172
推荐阅读
相关标签
  

闽ICP备14008679号