当前位置:   article > 正文

使用flume收集文件数据传输至kafka_flume读取excel

flume读取excel

不做过多介绍  直接实现目的

kafka和flume的包就自行百度即可,kafka的安装教程:https://blog.csdn.net/qq_41594146/article/details/100153434

flume的话直接下载后解压即可用  

直接上解释的配置文件:

  1. #agent name :a1 #给代理取的名字
  2. a1.sources = r1 #sources认定下方带r1
  3. a1.sinks = k1 #理解同上
  4. a1.channels = c1 #理解同上
  5. # Flume source
  6. a1.sources.r1.type = exec #监听的类型
  7. a1.sources.r1.command = tail -f /home/testdata.txt #监听时使用的指令 这个可自行修改成你需要的指令 加 |grep 可实现过滤效果
  8. a1.sources.r1.shell=/bin/sh -c
  9. a1.sources.r1.batchSize = 1000
  10. a1.sources.r1.batchTimeout = 3000
  11. a1.sources.r1.channels = c1
  12. # Flume channel
  13. a1.channels.c1.type = memory
  14. a1.channels.c1.capacity = 1000000
  15. a1.channels.c1.transactionCapacity = 100000
  16. a1.channels.c1.byteCapacityBufferPercentage = 10
  17. #a1.channels.c1.byteCapacity = 800000
  18. # Flume sink
  19. a1.sinks.k1.channel = c1
  20. a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
  21. a1.sinks.k1.topic = test
  22. a1.sinks.k1.brokerList = 192.168.79.137:9092 #kafka的配置 如果是集群 用逗号隔开
  23. a1.sinks.k1.requiredAcks = 1
  24. a1.sinks.k1.batchSize = 2000

运行flume:

  1. nohup bin/flume-ng agent -c conf -f conf/flume2kafka.properties -n a1 -Dflume.root.logger=INFO,console &
  2. # -f后带的是指定的配置文件名 -n 后面带的是代理的名字 上方的配置文件用的是a1所以这里用a1 再后面带的是运行时的jvm参数

效果:

模拟文件写入情况:

java程序消费情况:

 

 如果能可以帮到各位 可以点个赞或者关注

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/88910
推荐阅读
相关标签
  

闽ICP备14008679号