当前位置:   article > 正文

Spark Streaming 运行日志 、 任务监控 Web UI 、Kafka 、Listener 邮件短信通知_logs\\streaming_log.txt

logs\\streaming_log.txt

任务监控

 

一、 Spark Web UI 

对于 Spark Streaming 任务的监控可以直观的通过 Spark Web UI ,该页面包括 Input Rate, Scheduling Delay、Processing Time 等,但是这种方法运维成本较高,需要人工不间断的巡视。

这其中包括接受的记录数量,每一个batch内处理的记录数,处理时间,以及总共消耗的时间。

 在上述参数之中最重要的两个参数分别是Porcessing Time 以及 Scheduling Delay

 Porcessing Time  用来统计每个batch内处理数据所消费的时间

 Scheduling Delay 用来统计在等待被处理所消费的时间

 如果PT比SD大,或者SD持续上升,这就表明此系统不能对产生的数据实时响应,换句话来说就是,出现了处理时延,每个batch time 内的处理速度小于数据的产生速度。

在这种情况下,读者需要想法减少数据的处理速度,即需要提升处理效率。 

spark streaming应用程序,放到线上后,怎么监测spark streaming程序的阻塞状态, 运行情况,虽然spark 提供了spark webUI去查看,但是作为开发人员总不能天天去看spark webUI页面吧, 去官网看,貌似可以通过请求spark 自带的jetty 服务器可以获取相关检测统计信息,

http://host:8088/proxy/application_1517299288666_7058/streaming/
返回的数据是要html页面,可以通过正则去解析需要的信息;但是这样子很不方便,

2.命令行版

  1. yarn application -list
  2. 所有状态:ALL,NEW,NEW_SAVING,SUBMITTED,ACCEPTED,RUNNING,FINISHED,FAILED,KILLED多个用","分隔;
  3. yarn application -list -appStates RUNNING
  4. yarn logs -applicationId application_1517538889175_2550 > logs.txt
  5. 通过vim进行查看logs.txt文件
  6. -status 列出 某个application 的状态
  7. yarn application -status application_1526100291229_206393
  8. yarn application -kill application_1526100291229_206393
  9. yarn node -list 查看节点清单,显示数据节点Data Node列表
  10. yarn queue -status 队列名称
  11. yarn top 查看集群资源使用信息

 Spark 的日志

基本上每个程序都要有日志记录的功能,日志的记录最重要的用处就是监控程序的运行状态和错误查找。如果程序没有写日志,那程序就像瞎子一样,瞎跑,你都不知道为什么数据不对,为什么程序报错,程序运行成功还是失败。

在流式计算Sparkstreaming中,日志的记录是非常重要的;因为流式计算是需要7*24小时一直运行的,你不记日志你根本不知道程序运行成功还是错误(当然你可以通过spark的history来查看),但是sparkstreaming的日志它只记录程序的内部错误,并不会记录你程序的计算逻辑错误(所以会导致你整个程序计算结果都不对了都不知道)。

SparkStreming的日志是比较特别的,特别之处在于,它的日志只有在运行完成之后才能被load到本地查看的,不然它的日志是一直在hdfs上的。因为sparkstreaming程序永远不停机,就算你开启hadoop的log聚合也没用,只有当sparkstreaming程序停掉,hadoop的log聚合才能把所有的log收集到一个目录里面,所以其他的非sparkstreaming程序,比如MR,Spark 运行完后,如果开启log聚合,hadoop会负责把运行在各个节点上的log给统一收集到HDFS上。

spark on yarn应用在运行时和完成后日志的存放位置是不同的,一般运行时是存放在各个运行节点,完成后会归集到hdfs。

当这个application正常或者由于某种原因异常结束后,yarn默认会将所有日志归集到hdfs上,所以yarn也提供了一个查询已结束application日志的方法,即

spark on yarn模式,如果你的hadoop集群有100台,那么意味着你的sparkstreaming的log有可能会随机分布在100台中,你想查看log必须登录上每台机器上,一个个查看,如果通过Hadoop的8088页面查看,你也得打开可能几十个页面才能看到所有的log,那么问题来了? 

能不能将这个job运行所有的log统一收集到某一个目录里面呢? 如果收集到一起的话排查log就非常方便了。 

那么,如果我们需要一个这样的功能:需要一个监控程序来监控Spark的运行情况,并且一旦程序出问题要马上发邮件到自己的邮箱,然后自己重启程序。

二、SparkStreaming的log4j日志记录

为什么我们要写日志 

解决的思路

1、简单的思路:把SparkStreaming的运行模式选为yarn-client模式,那么程序的driver就会是在固定的机子上,你可以选择把日志都写在这台机子上,然后在这台机子上写一个脚本来监控这个日志文件(tail -f 文件路径);你可以一直看到你日志的写出情况。

当遇到一个error日志的时候你就可以选择处理方法。这个方法的缺点是:如果程序以yarn-client模式运行的话,而且写脚本。

2、复杂一点的思路:使用log4j收集日志,然后异步发送至kafka里面,供下层消费,这个方法的好处就是,程序和日志解耦。程序只管写他的日志,也不管写什么机子,只要给他一个brokerlist。日志也都记录在kafka,你可以写一个简单的java程序来监控它。spark照样可以使用yarn-cluster模式。

收集kafka里面的日志进入es即可,出现任何异常都可以非常快和方便的在es中排查问题,效率大大提升。

参考一:spark streaming 通过log4j 统一输出日志到kafka   spark streaming 通过log4j 统一输出日志到kafka_mamls的博客-CSDN博客

参考二:log4j收集日志然后异步发送至kafka

如何收集SparkSteaming运行日志实时进入kafka中   https://qindongliang.iteye.com/blog/2354381

Spark log4j 日志配置详解 Spark log4j 日志配置详解_ZMC921的博客-CSDN博客

使用自定义的log4j配置

通常一个集群会有很多个的spark任务,每个任务都会记日志,如果都使用spark默认的日志配置文件,那将会很难控制和维护。所以需要使用自定义的log4j配置。

在默认情况下,Spark应用程序的日志级别是INFO的,我们可以自定义Spark应用程序的日志输出级别,可以到$SPARK_HOME/conf/log4j.properties(spark安装目录下面的log4j文件 文件里面进行修改,(也可指定到某一目录)

  1. log4j.rootLogger=WARN,console,kafka  
  2.   
  3. #log4j.logger.com.demo.kafka=DEBUG,kafka  
  4. # appender kafka  
  5. log4j.appender.kafka=kafka.producer.KafkaLog4jAppender  
  6. log4j.appender.kafka.topic=kp_diag_log  
  7. # multiple brokers are separated by comma ",".  
  8. log4j.appender.kafka.brokerList=192.168.201.6:9092,192.168.201.7:9092,192.168.201.8:9092  
  9. log4j.appender.kafka.compressionType=none  
  10. log4j.appender.kafka.syncSend=false  
  11. log4j.appender.kafka.layout=org.apache.log4j.PatternLayout  
  12. #log4j.appender.kafka.layout.ConversionPattern=%d [%-5p] [%t] - [%l] %m%n  
  13. log4j.appender.kafka.layout.ConversionPattern=[%d] [%p] [%t] %m%n  
  14.   
  15. # appender console  
  16. log4j.appender.console=org.apache.log4j.ConsoleAppender  
  17. log4j.appender.console.target=System.out  
  18. log4j.appender.console.layout=org.apache.log4j.PatternLayout  
  19. log4j.appender.console.layout.ConversionPattern=[%d] [%p] [%t] %m%n  
  20. #log4j.appender.console.layout.ConversionPattern=%d [%-5p] [%t] - [%l] %m%n  

自定义的log4j配置。参数将自定义的配置文件上传到应用程序的文件列表中。自己写一个log4j.properties然后在运行程序的时候指定用这个配置文件就好了

你自己写一个log4j.properties然后在运行程序的时候指定用这个配置文件就好了。yarn的运行有两种模式,两种的指定方式不一样这样Spark应用程序在运行的时候会打出WARN级别的日志,然后在提交Spark应用程序的时候使用--files参数指定上面的log4j.properties文件路径即可使用这个配置打印应用程序的日志。

  1. #yarn-client:
  2. –conf “spark.driver.extraJavaOptions=-Dlog4j.configuration=file:///data/test/log4j-spark.properties”
  3. # --files 参数将自定义的配置文件上传到应用程序的文件列表中
  4. --driver-java-options "-Dlog4j.configuration=log4j-driver.properties" 
  5. --conf spark.executor.extraJavaOptions="-Dlog4j.configuration=log4j-executor.properties" 
  6. --files /home/hadoop/spark-workspace/log4j-driver.properties,/home/hadoop/spark-workspace/log4j-executor.properties 
  7. #yarn-cluster:
  8. –files /data/lmq/test/log4j-spark.properties
  9. –conf “spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j-spark.properties”
  10. –conf “spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j-spark.properties”
  11. #不使用 --files 参数上传文件,直接使用文件。
  12. --driver-java-options "-Dlog4j.configuration=file:/home/hadoop/spark-workspace/log4j-driver.properties " 
  13. --conf spark.executor.extraJavaOptions="-Dlog4j.configuration=file:/home/hadoop/spark-workspace/log4j-executor.properties" 

原文:SparkStreaming的log4j日志记录_spark的自由牧场的博客-CSDN博客

最后看下提交脚本:如何收集SparkSteaming运行日志实时进入kafka中_三劫散仙-CSDN博客

  1. jars=`echo /home/spark/x_spark_job/streaming_lib/*jar | sed 's/ /,/g'`  
  2.   
  3. echo $jars  
  4.   
  5. #nohup /opt/bigdata/spark/bin/spark-submit  --class  com.bigdata.xuele.streaming.SparkStreamingKmd  --master yarn    --deploy-mode cluster --executor-cores 3  --driver-memory 4g   --executor-memory 4g  --num-executors 10  --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=logback.xml"   --jars  $jars    kpdiag-stream-1.0.0-SNAPSHOT.jar  &> streaming.log  &  
  6.   
  7. nohup /opt/bigdata/spark/bin/spark-submit    --class  com.bigdata.xuele.streaming.SparkStreamingKmd  --master yarn  --deploy-mode cluster \  
  8.  --files "/home/spark/x_spark_job/log4j.properties" \  
  9.  --executor-cores 3   --driver-memory 3g   --executor-memory 3g  --num-executors 12    --jars  $jars  \  
  10.  --conf "spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j.properties"   \  
  11.  --driver-class-path /opt/bigdata/jars/spark/kafka-log4j-appender-0.9.0.0.jar:/opt/bigdata/jars/spark/kafka_2.11-0.8.2.1.jar:/opt/bigdata/jars/spark/metrics-core-2.2.0.jar:/opt/bigdata/jars/spark/kafka-clients-0.8.2.1.jar \  
  12.  --driver-library-path /opt/bigdata/jars/spark/kafka-log4j-appender-0.9.0.0.jar:/opt/bigdata/jars/spark/kafka_2.11-0.8.2.1.jar:/opt/bigdata/jars/spark/metrics-core-2.2.0.jar:/opt/bigdata/jars/spark/kafka-clients-0.8.2.1.jar  \  
  13.  --conf spark.executor.extraClassPath=/opt/bigdata/jars/spark/kafka_2.11-0.8.2.1.jar:/opt/bigdata/jars/spark/metrics-core-2.2.0.jar:/opt/bigdata/jars/spark/kafka-clients-0.8.2.1.jar   \  
  14.  --conf spark.executor.extraLibraryPath=/opt/bigdata/jars/spark/kafka_2.11-0.8.2.1.jar:/opt/bigdata/jars/spark/metrics-core-2.2.0.jar:/opt/bigdata/jars/spark/kafka-clients-0.8.2.1.jar  \  
  15.  kpdiag-stream-1.0.0-SNAPSHOT.jar &> kp.log &  

log4j日志设置error级别以上  log4j日志设置error级别以上_IBLiplus的博客-CSDN博客_log4j错误等级 至此,我们的log就统一收集成功了,后续我们可以把log从kafka用sparkstreaming执行筛选WARN+ERROR级别的日志信息导入到es或者hbase中,就可以任意分析和查询了。
这里需要注意一点,sparkstreaming运行时候,系统本身也有大量的log,如果把这个系统log也收集到kafka里面本身的量是非常大的,而且好多信息不重要,其实 我们只需要关注业务重点log即可,主要是WARN+ERROR级别的,调试的时候可以把info级别打开,代码里重点关注的log都放在warn级别,异常什么的放在ERROR即可, 这样排查问题时候也容易而且了避免了大量log的产生从应用本身性能的影响。 

提交任务后,在kafka的节点上执行消费者命令就能看到对应的log输出:  

kafka-console-consumer --zookeeper 192.168.201.5:2181 --topic kp_diag_log 
  1. 收集到的log内容如下:
  2. [2018-01-21 16:37:03,154] [WARN] [Driver] Support for Java 7 is deprecated as of Spark 2.0.0
  3. [2018-01-21 16:37:19,714] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  4. [2018-01-21 16:37:19,738] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  5. [2018-01-21 16:37:19,739] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  6. [2018-01-21 16:37:19,738] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  7. [2018-01-21 16:37:19,739] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  8. [2018-01-21 16:37:19,740] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  9. [2018-01-21 16:37:19,738] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  10. [2018-01-21 16:37:19,739] [WARN] [Executor task launch worker-2] 非客观题跳过:类型:0
  11. [2018-01-21 16:37:19,842] [WARN] [Executor task launch worker-0] 题目id:b07e88feff464659ab5a351bf1e68ee0在redis不存在

三、基于 Flume+Kafka+Spark Streaming 实现实时监控输出日志的报警系统

基于 Flume+Kafka+Spark Streaming 实现实时监控输出日志的报警系统_linge1995的博客-CSDN博客_kafka 日志监控

运用场景:

我们机器上每天或者定期都要跑很多任务,很多时候任务出现错误不能及时发现,导致发现的时候任务已经挂了很久了。 

解决方法:

基于 Flume+Kafka+Spark Streaming 的框架对这些任务的输出日志进行实时监控,当检测到日志出现Error的信息就发送邮件给项目的负责人。 

1、Flume

Flume是用来收集、汇聚并且传输日志数据Kafka去。可以设置多个sources对应多个任务的日志,到一个kafka sinks。配置文件如下:

  1. #define agent
  2. agent_log.sources = s1 s2
  3. agent_log.channels = c1
  4. agent_log.sinks = k1
  5. #define sources.s1
  6. agent_log.sources.s1.type=exec
  7. agent_log.sources.s1.command=tail -F /data/log1.log
  8. #define sources.s2
  9. agent_log.sources.s2.type=exec
  10. agent_log.sources.s2.command=tail -F /data/log2.log
  11. #定义拦截器
  12. agent_log.sources.s1.interceptors = i1
  13. agent_log.sources.s1.interceptors.i1.type = static
  14. agent_log.sources.s1.interceptors.i1.preserveExisting = false
  15. agent_log.sources.s1.interceptors.i1.key = projectName
  16. agent_log.sources.s1.interceptors.i1.value= project1
  17. agent_log.sources.s2.interceptors = i2
  18. agent_log.sources.s2.interceptors.i2.type = static
  19. agent_log.sources.s2.interceptors.i2.preserveExisting = false
  20. agent_log.sources.s2.interceptors.i2.key = projectName
  21. agent_log.sources.s2.interceptors.i2.value= project2
  22. #define channels
  23. agent_log.channels.c1.type = memory
  24. agent_log.channels.c1.capacity = 1000
  25. agent_log.channels.c1.transactionCapacity = 1000
  26. #define sinks
  27. #设置Kafka接收器
  28. agent_log.sinks.k1.type= org.apache.flume.sink.kafka.KafkaSink
  29. #设置Kafka的broker地址和端口号
  30. agent_log.sinks.k1.brokerList=cdh1:9092,cdh2:9092,cdh3:9092
  31. #设置Kafka的Topic
  32. agent_log.sinks.k1.topic=result_log
  33. #包含header
  34. agent_log.sinks.k1.useFlumeEventFormat = true
  35. #设置序列化方式
  36. agent_log.sinks.k1.serializer.class=kafka.serializer.StringEncoder
  37. agent_log.sinks.k1.partitioner.class=org.apache.flume.plugins.SinglePartition
  38. agent_log.sinks.k1.partition.key=1
  39. agent_log.sinks.k1.request.required.acks=0
  40. agent_log.sinks.k1.max.message.size=1000000
  41. agent_log.sinks.k1.agent_log.type=sync
  42. agent_log.sinks.k1.custom.encoding=UTF-8
  43. # bind the sources and sinks to the channels
  44. agent_log.sources.s1.channels=c1
  45. agent_log.sources.s2.channels=c1
  46. agent_log.sinks.k1.channel=c1

执行flume-ng命令启动flume:

flume-ng agent -c /etc/flume-ng/conf -f result_log.conf -n agent_log

2、Kafka

Kafka是一个消息系统,可以缓冲消息。Flume收集的日志传送到Kafka消息队列中(Flume作为生产者),然后就可以被Spark Streaming消费了,而且可以保证不丢失数据。

  1. #创建result_log主题
  2. kafka-topics --zookeeper cdh1:2181,cdh1:2181,cdh3:2181 --create --topic result_log --partitions 3 --replication-factor 1
  3. #测试-查看kafka主题列表,观察result_log是否创建成功
  4. kafka-topics --list --zookeeper cdh1:2181,cdh1:2181,cdh3:2181
  5. #测试-启动一个消费者测试flume传输日志到kafka这一环节是否正常运行
  6. kafka-console-consumer --bootstrap-server cdh1:9092,cdh1:9092,cdh3:9092 --topic result_log 

3、Spark Streaming  

我们用Zookeeper来管理spark streaming 消费者的offset。调用

  1. KafkaUtils.createDirectStream[String, String](ssc, PreferConsistent, Subscribe[String, String](topics, kafkaParams, newOffset))
  2. 与kafka建立连接,返回InputDStream,获取数据流,    
  3. stream.foreachRDD(rdd => {
  4. //处理程序
  5. })

发送邮件的功能配置org.apache.commons.mail这个包的 HtmlEmail 这个类,调用 HtmlEmail.send 发送邮件。

编写一个start.sh脚本启动 Spark Streaming 程序,最后 sh start.sh 启动脚本。

  1. #!/bin/bash
  2. export HADOOP_USER_NAME=hdfs
  3. spark2-submit \
  4. --master yarn \
  5. --deploy-mode client \
  6. --executor-cores 3 \
  7. --num-executors 10 \
  8. --driver-memory 2g \
  9. --executor-memory 1G \
  10. --conf spark.default.parallelism=30 \
  11. --conf spark.storage.memoryFraction=0.5 \
  12. --conf spark.shuffle.memoryFraction=0.3 \
  13. --conf spark.reducer.maxSizeInFlight=128m \
  14. --driver-class-path mysql-connector-java-5.1.38.jar \
  15. --jars mysql-connector-java-5.1.38.jar,qqwry-java-0.7.0.jar,fastjson-1.2.47.jar,spark-streaming-kafka-10_2.11-2.2.0.jar,hive-hbase-handler-1.1.0-cdh5.13.0.jar,commons-email-1.5.jar,commons-email-1.5-sources.jar,mail-1.4.7.jar \
  16. --class com.lin.monitorlog.mianer.Handler \
  17. monitorLog.jar

以上介绍日志的监控,当Spark任务spark streaming 发生阻塞 的时候,可以发送邮件

二、SparkListener与StreamingListener

   spark 提供了一系列整个任务生命周期中各个阶段变化的事件监听机制 通过这一机制可以在任务的各个阶段做一些自定义的各种动作, SparkListener与StreamingListener(StreamingListener是对SparkStream进行监控)便是这些阶段的事件监听接口类 通过实现这个类中的各种方法便可实现自定义的事件处理动作。 

 对spark任务的各种事件做相应的操作,嵌入回调代码。

       比如:你可以在sparkListener中的onApplicationStart方法中做driver端的第三方框架的连接池初始化(连接仅限driver端使用)以及其他变量的初始化,并放置到公共对象中,driver端直接就可以使用。且在onApplicaionComple方法中做连接的释放工作,以及变量的收集持久化操作,以次达到隐藏变量初始化的操作,做成公共jar包供其它人使用。

      又如:你可以在StreamingListener的onbatchStart操作中获取kafka读取的offset位置以及读取数据条数,在onBatchCompl方法中将这些offset信息保存到mysql/zk中,达到优雅隐藏容错代码的目的。同样可以做成公共jar共其他项目使用。

性能分析

       在使用过程中,大家可能比较关系另外一个问题:指标收集,会对流式计算性能产生多大的影响?

       答案就是,在指标收集这一块,对于流式计算或者spark core产生的影响会很小。因为即使你不收集SparkUI也会收集,这些指标一样会生成。只是对于driver端的开销会稍微变大,如果在流式计算场景可能需要你调大driver端的cpu和内存
 

SparkListener
使用方法:
       sparkListener是一个接口,我们使用时需要自定义监控类实现sparkListener接口中的各种抽象方法,SparkListener 下各个事件对应的函数名非常直白,即如字面所表达意思。 想对哪个阶段的事件做一些自定义的动作,变继承SparkListener实现对应的函数即可,这些方法会帮助我监控spark运行时各个阶段的数据量,从而我们可以获得这些数据量,具体的抽象方法下面一一介绍。

SparkListener的抽象方法:

  1. abstract class SparkListener extends SparkListenerInterface {
  2.   //阶段完成时触发的事件
  3.   override def onStageCompleted(stageCompleted: SparkListenerStageCompleted): Unit   = { }
  4.   //阶段提交时触发的事件
  5.   override def onStageSubmitted(stageSubmitted: SparkListenerStageSubmitted): Unit  = { }
  6.   //任务启动时触发的事件
  7.   override def onTaskStart(taskStart: SparkListenerTaskStart): Unit = { }
  8.   //下载任务结果的事件
  9.   override def onTaskGettingResult(taskGettingResult: SparkListenerTaskGettingResult): Unit = { }
  10.   //任务结束的事件
  11.   override def onTaskEnd(taskEnd: SparkListenerTaskEnd): Unit = { }
  12.   //job启动的事件
  13.   override def onJobStart(jobStart: SparkListenerJobStart): Unit = { }
  14.   //job结束的事件
  15.   override def onJobEnd(jobEnd: SparkListenerJobEnd): Unit = { }
  16.   //环境变量被更新的事件
  17.   override def onEnvironmentUpdate(environmentUpdate:SparkListenerEnvironmentUpdate): Unit = { }
  18.   //块管理被添加的事件
  19.   override def onBlockManagerAdded(blockManagerAdded: 
  20.   SparkListenerBlockManagerAdded): Unit = { }
  21.   override def onBlockManagerRemoved( blockManagerRemoved: SparkListenerBlockManagerRemoved): Unit = { }
  22.   //取消rdd缓存的事件
  23.   override def onUnpersistRDD(unpersistRDD: SparkListenerUnpersistRDD): Unit = { }
  24.   //app启动的事件
  25.   override def onApplicationStart(applicationStart: SparkListenerApplicationStart):  Unit = { }
  26.   //app结束的事件 [以下各事件也如同函数名所表达各个阶段被触发的事件不在一一标注]
  27.   override def onApplicationEnd(applicationEnd: SparkListenerApplicationEnd): Unit  = { } 
  28.   override def onExecutorMetricsUpdate( executorMetricsUpdate: SparkListenerExecutorMetricsUpdate): Unit = { }
  29.   override def onExecutorAdded(executorAdded: SparkListenerExecutorAdded): Unit = {  }
  30.   override def onExecutorRemoved(executorRemoved: SparkListenerExecutorRemoved):  Unit = { }
  31.   override def onExecutorBlacklisted( executorBlacklisted: SparkListenerExecutorBlacklisted): Unit = { }
  32.   override def onExecutorUnblacklisted( executorUnblacklisted: SparkListenerExecutorUnblacklisted): Unit = { }
  33.   override def onNodeBlacklisted( nodeBlacklisted: SparkListenerNodeBlacklisted): Unit = { }
  34.   override def onNodeUnblacklisted( nodeUnblacklisted: SparkListenerNodeUnblacklisted): Unit = { }
  35.   override def onBlockUpdated(blockUpdated: SparkListenerBlockUpdated): Unit = { }
  36.   override def onOtherEvent(event: SparkListenerEvent): Unit = { }
  37. }

StreamingListener
     StreamingListener 是一个特质,是针对spark streaming的各个阶段的事件监听机制 在用法上跟SparkListener很类似,但是有些细节区别。使用时和sparkListner一样,需要监听spark streaming中各个阶段的事件只需实现这个特质中对应的事件函数即可。

  1. trait StreamingListener {
  2.   /** streaming 启动的事件 */
  3.   def onStreamingStarted(streamingStarted: StreamingListenerStreamingStarted) { }
  4.   /** 接收启动事件 */
  5.   def onReceiverStarted(receiverStarted: StreamingListenerReceiverStarted) { }
  6.   /** Called when a receiver has reported an error */
  7.   def onReceiverError(receiverError: StreamingListenerReceiverError) { }
  8.   /** Called when a receiver has been stopped */
  9.   def onReceiverStopped(receiverStopped: StreamingListenerReceiverStopped) { }
  10.   /** Called when a batch of jobs has been submitted for processing. */
  11.   /** 每个批次提交的事件 */
  12.   def onBatchSubmitted(batchSubmitted: StreamingListenerBatchSubmitted) { }
  13.   /** 每个批次启动的事件 */
  14.   def onBatchStarted(batchStarted: StreamingListenerBatchStarted) { }
  15.   /** 每个批次完成的事件  */
  16.   def onBatchCompleted(batchCompleted: StreamingListenerBatchCompleted) { }
  17.   /** Called when processing of a job of a batch has started. */
  18.   def onOutputOperationStarted(outputOperationStarted: StreamingListenerOutputOperationStarted) { }
  19.   /** Called when processing of a job of a batch has completed. */
  20.   def onOutputOperationCompleted(outputOperationCompleted: StreamingListenerOutputOperationCompleted) { }
  21. }

自定义Listener 并注册(伪代码如下):代码spark streaming流式计算---监听器_u010990043的博客-CSDN博客_sparkstreaming监听器

  1. val spark:SparkSession=null
  2. val ssc:StreamingContext=null
  3. /*注册streamingListnener*/
  4. ssc.addStreamingListener(new MyStreamingListener)
  5. /*注册sparkListener*/
  6. spark.sparkContext.addSparkListener(new MySparkListener)
  7. /*自定义streamingListener*/
  8. class MyStreamingListener extends StreamingListener{
  9. //TODO 重载内置方法
  10. }
  11. /*自定义SparkListnener*/
  12. class MySparkListener extends SparkListener {
  13. //TODO 重载内置方法
  14. }

案例一

 实时监控spark Streaming运行时的延迟时间,每个批次处理的条数,然后将这些实时数据插入到influxDB数据进行实时展示。

  1. /**
  2. * 自定义spark监控类实现获得延迟和批次条数的方法
  3. */
  4. class JobListener(appId: String) extends StreamingListener {
  5. override def onBatchCompleted(batchCompleted: StreamingListenerBatchCompleted):
  6. Unit = {
  7. //调度延迟,单位:毫秒
  8. val actualSchedulingDelay: Long = batchCompleted.batchInfo.schedulingDelay.get
  9. //处理记录数
  10. val numRecords: Long = batchCompleted.batchInfo.numRecords
  11. val processingDelay = batchCompleted.batchInfo.processingDelay.get
  12. JobListener.insert(appId, actualSchedulingDelay, numRecords, processingDelay)
  13. //实时监控spark Streaming运行时的 执行时间:   调度延时 ,然后将这些实时数据输出日志。
  14. val batchInfo = batchCompleted.batchInfo
  15. val execTime = batchInfo.processingDelay.getOrElse(0L)
  16. val schedulingTime = batchInfo.schedulingDelay.getOrElse(0L)
  17. logInfo(s"执行时间: $execTime 调度延时 : $schedulingTime")
  18. }
  19. }
  20. object JobListener {
  21. private val config: Config = ConfigFactory.load()
  22. val resourceAsStream: InputStream = classOf[SendMail].getClassLoader.getResourceAsStream("conf.properties")
  23. val prop = new Properties
  24. prop.load(resourceAsStream)
  25. val influxDbUtil = new InfluxDbUtil(prop.getProperty("influx_db.url"),
  26. prop.getProperty("influx_db.user"), prop.getProperty("influx_db.pwd"),
  27. prop.getProperty("influx_db.database"))
  28. //val influxDbUtil = new InfluxDbUtil(config.getString("influx_db.url"),
  29. config.getString("influx_db.user"), config.getString("influx_db.pwd"),
  30. config.getString("influx_db.database"))
  31. influxDbUtil.setInfluxDB(influxDbUtil.getInfluxDB)
  32. influxDbUtil.setMeasurement(prop.getProperty("influx_db.measurement"))
  33. influxDbUtil.setDatabase(influxDbUtil.getDatabase)
  34. def insert(appIdName: String, actualSchedulingDelay: Long, numRecords: Long,
  35. processingDelay: Long): Unit = {
  36. //标签
  37. val tagMap = new util.HashMap[String, String]
  38. //字段
  39. val fieldMap = new util.HashMap[String, String]
  40. tagMap.put("app_id", appIdName)
  41. fieldMap.put("delay", actualSchedulingDelay.toString)
  42. fieldMap.put("num_records", numRecords.toString)
  43. fieldMap.put("processing_delay", processingDelay.toString)
  44. influxDbUtil.insert(influxDbUtil.getMeasurement,tagMap,fieldMap)
  45. }
  46. }

示例代码应用

  1. //streamingListener不需要在配置中设置,可以直接添加到streamingContext中
  2. object My{
  3. def main(args : Array[String]) : Unit = {
  4. val sparkConf = new SparkConf()
  5. val ssc = new StreamingContext(sparkConf,Seconds(20))
  6. ssc.addStreamingListener(new JobListener(ssc))
  7. ....
  8. }
  9. }

案例二、当发生阻塞的时候,可以发送邮件,以下实现比较简单

  1. class BJJListener(private val appName:String, private val duration: Int) extends StreamingListener{
  2. private val logger = LoggerFactory.getLogger("BJJListener")
  3. override def onReceiverStarted(receiverStarted: StreamingListenerReceiverStarted): Unit = {
  4. super.onReceiverStarted(receiverStarted)
  5. }
  6. override def onReceiverError(receiverError: StreamingListenerReceiverError): Unit = super.onReceiverError(receiverError)
  7. override def onReceiverStopped(receiverStopped: StreamingListenerReceiverStopped): Unit = super.onReceiverStopped(receiverStopped)
  8. override def onBatchSubmitted(batchSubmitted: StreamingListenerBatchSubmitted): Unit = {
  9. super.onBatchSubmitted(batchSubmitted)
  10. val batchInfo = batchSubmitted.batchInfo
  11. val batchTime = batchInfo.batchTime
  12. logger.info("BJJListener batchTime : ", batchTime)
  13. }
  14. override def onBatchStarted(batchStarted: StreamingListenerBatchStarted): Unit = {
  15. val batchInfo = batchStarted.batchInfo
  16. val processingStartTime = batchInfo.processingStartTime
  17. logger.info("BJJListener processingStartTime : ", processingStartTime)
  18. }
  19. override def onBatchCompleted(batchCompleted: StreamingListenerBatchCompleted): Unit = {
  20. val batchInfo = batchCompleted.batchInfo
  21. val processingStartTime = batchCompleted.batchInfo.processingStartTime
  22. val processingEndTime = batchInfo.processingEndTime
  23. val processingDelay = batchInfo.processingDelay
  24. val totalDelay = batchInfo.totalDelay
  25. if(totalDelay.get >= 6 * duration * 1000 && totalDelay.get >= 10 * duration * 1000){
  26. val monitorTitle = s"spark streaming $appName 程序阻塞异常警告"
  27. val monitorContent = s"BJJListener : processingStartTime -> ${processingStartTime.get}, processingEndTime -> ${processingEndTime.get} , " +
  28. s"processingDelay -> ${processingDelay.get} , totalDelay -> ${totalDelay.get}, 请及时检查!"
  29. val monitorContent = s"BJJListener :
  30. processingStartTime -> ${processingStartTime.get},
  31. processingEndTime -> ${processingEndTime.get} ,
  32. processingDelay -> ${processingDelay.get} ,
  33. totalDelay -> ${totalDelay.get},
  34. 请及时检查!"
  35. EmailSender.sendMail(monitorTitle, monitorContent)
  36. }
  37. logger.info("BJJListener processingEndTime : ", processingEndTime)
  38. logger.info("BJJListener processingDelay : ", processingDelay)
  39. logger.info("BJJListener totalDelay : ", totalDelay)
  40. }
  41. override def onOutputOperationStarted(outputOperationStarted: StreamingListenerOutputOperationStarted): Unit =
  42. super.onOutputOperationStarted(outputOperationStarted)
  43. override def onOutputOperationCompleted(outputOperationCompleted: StreamingListenerOutputOperationCompleted): Unit =
  44. super.onOutputOperationCompleted(outputOperationCompleted)
  45. }
  1. public class EmailSender {
  2. private static boolean sendTextMail(EmailSendInfo mailInfo) {
  3. boolean sendStatus = false;//发送状态
  4. // 判断是否需要身份认证
  5. EmailAuthenticator authenticator = null;
  6. Properties pro = mailInfo.getProperties();
  7. if (mailInfo.isValidate()) {
  8. // 如果需要身份认证,则创建一个密码验证器
  9. authenticator = new EmailAuthenticator(mailInfo.getUserName(), mailInfo.getPassword());
  10. }
  11. // 根据邮件会话属性和密码验证器构造一个发送邮件的session
  12. Session sendMailSession = Session.getInstance(pro, authenticator);
  13. //【调试时使用】开启Session的debug模式
  14. sendMailSession.setDebug(true);
  15. try {
  16. // 根据session创建一个邮件消息
  17. MimeMessage mailMessage = new MimeMessage(sendMailSession);
  18. // 创建邮件发送者地址
  19. Address from = new InternetAddress(mailInfo.getFromAddress());
  20. // 设置邮件消息的发送者
  21. mailMessage.setFrom(from);
  22. // 创建邮件的接收者地址,并设置到邮件消息中
  23. Address to = new InternetAddress(mailInfo.getToAddress());
  24. mailMessage.setRecipient(Message.RecipientType.TO,to);
  25. // 设置邮件消息的主题
  26. mailMessage.setSubject(mailInfo.getSubject(), "UTF-8");
  27. // 设置邮件消息发送的时间
  28. mailMessage.setSentDate(new Date());
  29. // 设置邮件消息的主要内容
  30. String mailContent = mailInfo.getContent();
  31. mailMessage.setText(mailContent, "UTF-8");
  32. // 发送邮件
  33. Transport.send(mailMessage);
  34. sendStatus = true;
  35. } catch (MessagingException ex) {
  36. ex.printStackTrace();
  37. }
  38. return sendStatus;
  39. }
  40. public static void sendMail(String monitorTitle, String monitorContent){
  41. String fromaddr = "xxxx@yqzbw.com";
  42. String toaddr = "xxxx@yqzbw.com";
  43. String port = "25";
  44. String host = "smtp.exmail.qq.com";
  45. String userName = "xxxxxg@yqzbw.com";
  46. String password = "12345678";
  47. EmailSendInfo mailInfo = new EmailSendInfo();
  48. mailInfo.setMailServerHost(host);
  49. mailInfo.setValidate(true);
  50. mailInfo.setUserName(userName);
  51. mailInfo.setPassword(password);
  52. mailInfo.setFromAddress(fromaddr);
  53. mailInfo.setToAddress(toaddr);
  54. mailInfo.setSubject(monitorTitle);
  55. mailInfo.setContent(monitorContent);
  56. //发送文体格式邮件
  57. EmailSender.sendTextMail(mailInfo);
  58. }
  59. }

spark streaming程序测试的例子

  1. object test {
  2. def main(args: Array[String]): Unit = {
  3. System.setProperty("hadoop.home.dir", "D:\\mcyarn\\hadoop-common-2.2.0-bin-master")
  4. Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)
  5. Logger.getLogger("org.eclipse.jetty.server").setLevel(Level.OFF)
  6. val appName = "spark Steaming test"
  7. val conf = new SparkConf().setMaster("local[2]").setAppName("test")
  8. val sc = new SparkContext(conf)
  9. val ssc = new StreamingContext(sc, Seconds(10))
  10. val brokerList = "localhost:9092"
  11. val zookeeperConnect = "localhost:2181"
  12. val groupId = "baasdf20180302"
  13. val newsTopic = "test"
  14. val kafkaParams = Map("metadata.broker.list" -> brokerList, "group.id" -> groupId,
  15. "zookeeper.connect"->zookeeperConnect,
  16. "auto.offset.reset" -> kafka.api.OffsetRequest.LargestTimeString)
  17. val kafkaStream = KafkaUtils.createDirectStream[String,String,StringDecoder, StringDecoder](ssc, kafkaParams,
  18. topics = Set(newsTopic)).map(_._1)
  19. kafkaStream.foreachRDD(rdd=>{
  20. if(!rdd.isEmpty()){
  21. val rdds = rdd.union(rdd).union(rdd).union(rdd)
  22. val transform = rdds.map(news=>{
  23. if(news!=null){
  24. val split = NlpAnalysis.parse(news).toStringWithOutNature(" ")
  25. split
  26. }else{
  27. null
  28. }
  29. })
  30. val wordCount = transform.map(word=>(word, 1)).reduceByKey(_+_)
  31. wordCount.foreach(println)
  32. println(rdd.count())
  33. }
  34. })
  35. // 通过可插拔的方式添加自己实现的listener
  36. ssc.addStreamingListener(new BJJListener(appName, 10))
  37. ssc.start()
  38. ssc.awaitTermination()
  39. }
  40. }

3、 除此之外你还可以自己写 Python 脚本在 yarn 管理界面解析该应用的 ApplicationMaster 的地址,之后再通过 Spark Streaming 的 UI 去获取相关参数。 
 

解决spark streaming长时间运行日志不断增长问题

采用设置log4j.properties的方法

解决spark streaming长时间运行日志不断增长问题_shengjk1的博客-CSDN博客

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/389464
推荐阅读
相关标签
  

闽ICP备14008679号