当前位置:   article > 正文

FlinkSQL_1.12_用连接器实现TableAPI(Sink ES)把端口数据写入ES并实现去重写入_flink sql 写入es

flink sql 写入es

Flink用连接器实现TableAPI(Sink ES)把端口数据写入ES并实现去重写入

  1. package com.atguigu.day10;
  2. import com.atguigu.bean.WaterSensor;
  3. import org.apache.flink.streaming.api.datastream.DataStreamSource;
  4. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
  5. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  6. import org.apache.flink.table.api.DataTypes;
  7. import org.apache.flink.table.api.Table;
  8. import org.apache.flink.table.api.bridge.java.StreamTableEnvironment;
  9. import org.apache.flink.table.descriptors.Elasticsearch;
  10. import org.apache.flink.table.descriptors.Json;
  11. import org.apache.flink.table.descriptors.Kafka;
  12. import org.apache.flink.table.descriptors.Schema;
  13. import org.apache.kafka.clients.producer.ProducerConfig;
  14. import static org.apache.flink.table.api.Expressions.$;
  15. /**
  16. * @author dxy
  17. * @date 2021/4/21 13:46
  18. */
  19. public class FlinkSQL16_Sink_ES {
  20. public static void main(String[] args) throws Exception {
  21. //1.获取执行环境
  22. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  23. env.setParallelism(1);
  24. StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);
  25. //2.读取端口数据并封装成JavaBean
  26. DataStreamSource<String> socketTextStream = env.socketTextStream("hadoop102", 9998);
  27. SingleOutputStreamOperator<WaterSensor> waterSensorDS = socketTextStream.map(line -> {
  28. String[] fields = line.split(",");
  29. return new WaterSensor(fields[0],
  30. Long.parseLong(fields[1]),
  31. Double.parseDouble(fields[2]));
  32. });
  33. //3.使用TabelAPI
  34. Table sensorTable = tableEnv.fromDataStream(waterSensorDS);
  35. Table resultTable = sensorTable
  36. .where($("id").isEqual("ws_001"))
  37. .select($("id"), $("ts"), $("vc"));
  38. //4.将selectTable写入ES
  39. tableEnv.connect(new Elasticsearch()
  40. .index("sensor_sql")
  41. .documentType("_doc")
  42. .version("6")
  43. .host("hadoop102", 9200, "http")
  44. .bulkFlushMaxActions(1))
  45. .withSchema(new Schema()
  46. .field("id", DataTypes.STRING())
  47. .field("ts", DataTypes.BIGINT())
  48. .field("vc", DataTypes.DOUBLE()))
  49. .withFormat(new Json())
  50. .inAppendMode()
  51. .createTemporaryTable("sensor");
  52. //6.将数据通过连接器写入文件
  53. resultTable.executeInsert("sensor");//Sink
  54. //7.启动
  55. env.execute();
  56. }
  57. }

参数说明:bulkFlushMaxActions(1)每一条数据就执行写入,当然我们也可以以设置间隔多长时间进行写入,可以设置不同的参数方式实现写入。

在企业中肯定是批量写入,不是每一条就写入,ES是json格式因此我们指定的格式必须是JSON格式,其实在ES中它支持Append模式和upsert模式

在ES中append模式DOC的ID是随机给的,因为它没办法判断前面ID是追加模式。

导入ES依赖

  <dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-connector-elasticsearch6_2.11</artifactId>
  <version>1.12.0</version>
</dependency>

启动es.sh

#查看节点信息
GET _cat/nodes?v

#查看索引
GET _cat/indices

#查询别名列表
GET  _cat/aliases?v

#查看系统中已有的模板清单
GET  _cat/templates

#查看系统健康状态
GET _cat/health?v

开启9998端口然后启动程序

输入数据进行测试

在ES中查索引

然后查看数据

测试成功,成功将端口数据写入ES,并且可以去重,去重自己测试!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/822515
推荐阅读
相关标签
  

闽ICP备14008679号