当前位置:   article > 正文

flink sink jdbc没有数据_Flink流处理API——Sink

flink jdbcsink.sink 无效 也不报错

本文主要从以下几个方面介绍Flink的流处理API——Sink

一、输出到Kafka

二、输出到Redis

三、输出到MySQL

数据处理的过程基本可以分为三个阶段分别是,数据从来哪里,做什么业务逻辑,落地到哪里去。

这三部分在Flink中分别被称为Source、Transform和Sink

其中Source部分可以参考这篇:Flink流处理API——Source

Flink 没有类似于 spark 中 foreach 方法,让用户进行迭代的操作。虽有对外的输出操作都要利用 Sink 完成。最后通过类似如下方式完成整个任务最终输出操作。

stream.addSink(new MySink(xxxx))


官方提供了一部分的框架的 sink。除此以外,需要用户自定义实现 sink。

385245e27be09ffeb15eab04ec834f71.png

Flink支持的Sink

版本:

scala:2.11.12

Kafka:0.8.2.2

Flink:1.7.2

Redis:3.2.9

MySQL:5.7.30

pom.xml依赖部分(log日志的依赖一定要加上,否则当Flink链接Kafka0.8时会报Failed to instantiate SLF4J LoggerFactory Reported exception错误)

org.apache.flink            flink-scala_2.11            1.7.2org.apache.flink            flink-streaming-scala_2.11            1.7.2providedorg.apache.flink            flink-clients_2.11            1.7.2org.apache.flink            flink-connector-kafka-0.8_2.11            1.7.2org.slf4j            slf4j-api            1.7.22org.slf4j    
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/615137
推荐阅读
相关标签
  

闽ICP备14008679号