当前位置:   article > 正文

【Flink实战系列】Flink SQL 实时同步数据到 Hive_flink实时写入hive

flink实时写入hive

通过 HiveCatalog, Apache Flink 可以对 Apache Hive Tables 进行统一的 BATCH 和 STREAM 处理。这意味着Flink 可以作为一个比 Hive 的批处理引擎性能更好的选择,或者可以连续地在 Hive 表中读写数据,从而支持实时数据仓库应用程序。这篇文章就来介绍一下使用 Flink SQL 实时同步数据到 Hive 的流程。

环境

flink: 1.15.0
hadoop: 2.9.0
hive: 2.3.4
  • 1
  • 2
  • 3

依赖

<dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-hive_2.1
  • 1
  • 2
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/385174
推荐阅读
相关标签
  

闽ICP备14008679号