当前位置:   article > 正文

java使用flink基本入门(简单的单词统计)_flink java 单词计数

flink java 单词计数

目录

目录

idea搭建基础环境(idea2022版本)

1.创建maven项目

2.在pom.xml文件中导入flink的相关依赖

3.代码实现过程

3.1批处理方式实现单词统计

3.2流处理方式实现单词统计

总结



idea搭建基础环境(idea2022版本)

1.创建maven项目

2.在pom.xml文件中导入flink的相关依赖

  1. <dependency>
  2. <groupId>org.apache.flink</groupId>
  3. <artifactId>flink-streaming-java</artifactId>
  4. <version>1.17.0</version>
  5. </dependency>
  6. <dependency>
  7. <groupId>org.apache.flink</groupId>
  8. <artifactId>flink-clients</artifactId>
  9. <version>1.17.0</version>
  10. </dependency>

注意:第一次导入依赖可能会花费一些时间,请耐心等待!!!

3.代码实现过程

3.1批处理方式实现单词统计

  1. /**
  2. *
  3. * 批处理单词统计类
  4. */
  5. public class BatchWordCount {
  6. // 主函数
  7. public static void main(String[] args) throws Exception {
  8. // 创建执行环境
  9. ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
  10. // 从文件中读取数据 --> 按行读取 (存储元素为文件中的每行数据)
  11. DataSource<String> lineDataSource = env.readTextFile("input/word");
  12. // "input/word" 此处为相对路径,必须保证在整个项目中的input目录下存在word文件
  13. System.out.println("-------------初始数据-------------");
  14. lineDataSource.print();
  15. // 切分、转换
  16. FlatMapOperator<String, Tuple2<String, Integer>> wordAndOne = lineDataSource.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
  17. @Override
  18. public void flatMap(String s, Collector<Tuple2<String, Integer>> collector) throws Exception {
  19. // 按照空格切分单词
  20. String[] words = s.split(" ");
  21. // 通过循环方式收集切分单词后的数组数据
  22. for (String word : words) {
  23. // 将单词转换为 (word,count) 元组形式
  24. Tuple2<String, Integer> wordTuple2 = Tuple2.of(word, 1);
  25. // 使用collector采集器,向下游发送数据
  26. collector.collect(wordTuple2);
  27. // 等效代码
  28. //collector.collect(Tuple2.of(word,1));
  29. }
  30. }
  31. });
  32. System.out.println("-----------提取单词元组----------");
  33. wordAndOne.print();
  34. // 分组 --> 根据元组中第一个字段进行分组
  35. UnsortedGrouping<Tuple2<String, Integer>> wordAndOneGroup = wordAndOne.groupBy(0);
  36. // 分组内聚合统计 --> 统计每个单词的数量
  37. AggregateOperator<Tuple2<String, Integer>> result = wordAndOneGroup.sum(1);
  38. // 打印结果
  39. System.out.println("-------------统计结果---------------");
  40. result.print();
  41. }
  42. }

3.2流处理方式实现单词统计

  1. /**
  2. * 流处理方式单词统计类
  3. */
  4. public class StreamWordCount {
  5. /**
  6. * 主函数,用于启动流处理任务以统计输入文本文件中每个单词出现的次数。
  7. */
  8. public static void main(String[] args) throws Exception {
  9. // 创建一个流式执行环境,这是Flink程序的基础,用来配置和启动执行。
  10. StreamExecutionEnvironment senv = StreamExecutionEnvironment.getExecutionEnvironment();
  11. // 读取指定的相对路径("input/word")的文本文件,每一行数据将作为字符串单独处理。
  12. DataStreamSource<String> lineStreamSource = senv.readTextFile("input/word");
  13. // 对读取到的每行数据进行切分,将每一行的单词分割出来,并为每个单词计数初始化为1,
  14. // 然后将单词与计数值封装成Tuple2类型的数据流。
  15. SingleOutputStreamOperator<Tuple2<String, Integer>> wordAndOne =
  16. lineStreamSource.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
  17. @Override
  18. public void flatMap(String s, Collector<Tuple2<String, Integer>> collector) throws Exception {
  19. String[] words = s.split(" ");
  20. for (String word : words) {
  21. // 创建一个包含当前单词及其计数值1的元组
  22. Tuple2<String, Integer> tuple2WordTuple = Tuple2.of(word, 1);
  23. // 收集这个元组到数据流中,以便后续处理
  24. collector.collect(tuple2WordTuple);
  25. }
  26. }
  27. });
  28. // 根据单词(即元组中的第一个元素f0)进行分组,为每个不同的单词创建一个独立的分组流。
  29. KeyedStream<Tuple2<String, Integer>, String> wordAndOneKey =
  30. wordAndOne.keyBy(new KeySelector<Tuple2<String, Integer>, String>() {
  31. @Override
  32. public String getKey(Tuple2<String, Integer> stringIntegerTuple2) throws Exception {
  33. // 返回元组的第一个元素(单词)作为分组的键
  34. return stringIntegerTuple2.f0;
  35. }
  36. });
  37. // 在每个分组内对第二个元素(计数值)进行求和,从而实现单词计数。
  38. SingleOutputStreamOperator<Tuple2<String,Integer>> result = wordAndOneKey.sum(1);
  39. // 打印最终的统计结果到控制台。
  40. result.print();
  41. // 执行流处理任务,启动Flink程序。
  42. senv.execute();
  43. }
  44. }

总结

        以上是基于javaidea建立maven项目进行的简单词频统计,包括对文件的读取,分词,组合以及统计单词出现的个数,最后返回统计结果。整体代码结构简单易懂,可用于基本的flink使用的入门参考。

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号