赞
踩
在阅读本文前,可先看一下官方的WordCount代码, 对Apache Beam有大概的了解。
要说在Apache Beam中常见的函数是哪一个,当然是apply()。常见的写法如下:
- [Final Output PCollection] = [Initial Input PCollection].apply([First Transform])
- .apply([Second Transform])
- .apply([Third Transform])
而在最简单的wordcount代码中,就出现了许多种不同的传入参数类型,除了输入输出的部分,还包括
1)使用ParDo.of():
- .apply("ExtractWords-joe",
- ParDo.of(new DoFn<String, String>() {
- @ProcessElement
- public void processElement(ProcessContext context) {
- System.out.println(context.element()+"~");
- for (String word : context.element().split(" ")) {
- if (!word.isEmpty()) {
- //输出到Output PCollection
- context.output(word);
- }
- }
- }
- })
- )
2)使用MapElements.via():
- .apply("FomatResults",
- MapElements.via(new SimpleFunction<KV<String, Long>,String>() {
- @Override
- public String apply(KV<String, Long> input) {
- return input.getKey()+":"+input.getValue();
- }
- }))
3)以及使用PTransform子类:
.apply(new CountWords())
- public static class CountWords extends PTransform<PCollection<String>,
- PCollection<KV<String, Long>>> {
- @Override
- public PCollection<KV<String, Long>> expand(PCollection<String> lines) {
-
- // Convert lines of text into individual words.
- PCollection<String> words = lines.apply(
- ParDo.of(new ExtractWordsFn()));
-
- // Count the number of times each word occurs.
- PCollection<KV<String, Long>> wordCounts =
- words.apply(Count.<String>perElement());
-
- return wordCounts;
- }
- }
这么多种传入方式到底有什么联系?通过查看源码可以看出apply函数的定义如下:
- public <OutputT extends POutput> OutputT apply(
- String name, PTransform<? super PBegin, OutputT> root) {
- return begin().apply(name, root);
- }
传入的参数为PTransform类对象,也就是这几种传入参数其实都是PTransform类的变形。
PTransform是一个实现了Serializable接口的抽象类,其中public abstract OutputT expand(InputT input); 是数据处理方法,强制子类必须实现。
因此第(3)种方式很容易理解,就是通过继承PTransform并实现了expand方法定义了CountWords类,给apply方法传递了一个CountWords对象。
在第(2)种方式中,MapElements是PTransform的子类,实现了expand方法,其实现方式是调用@Nullable private final SimpleFunction<InputT, OutputT> fn;成员中定义的数据处理方法,MapElements.via()则是一个为初始化fn的静态方法,定义如下:
- public static <InputT, OutputT> MapElements<InputT, OutputT> via(
- final SimpleFunction<InputT, OutputT> fn) {
- return new MapElements<>(fn, null, fn.getClass());
- }
传入了一个SimpleFunction对象,SimpleFunction是一个必须实现public OutputT apply(InputT input) 方法的抽象类,用户在该apply方法中实现数据处理。
所以这种方式的实现方式如下:
定义SimpleFunction的子类并实现其中的apply方法,将该子类的对象传递给MapElements.via()。
第(1)种方式中,ParDo.of()方法传入一个DoFn对象, 返回一个SingleOutput对象:
- public static <InputT, OutputT> SingleOutput<InputT, OutputT> of(DoFn<InputT, OutputT> fn) {
- validate(fn);
- return new SingleOutput<InputT, OutputT>(
- fn, Collections.<PCollectionView<?>>emptyList(), displayDataForFn(fn));
- }
SingleOutput与MapElements类似,也是PTransform的子类,实现了expand方法,使用private final DoFn<InputT, OutputT> fn;成员中的方法进行数据处理。
而DoFn是一个抽象类,用户必须实现其注解方法(存疑) public void processElement(ProcessContext c)。
所以这种方式的实现方式如下:
定义DoFn的子类并实现其中的processElement方法,将该子类的对象传递给ParDo.of()。
需要注意的是processElement方法与前2种方式不同,输入和输出数据都是在传入参数ProcessContext c中,而不是通过return进行传递。
以上为学习Apache Beam一天的总结,有错误欢迎指正。
Day2补充,3种方式的区别和联系:
1)MapElement.via(SimpleFunction)和PTransform
public class MapElements<InputT, OutputT> extends PTransform<PCollection<? extends InputT>, PCollection<OutputT>>从泛型参数来看,PTransform处理的是PCollection,而MapElement处理的是PCollection中的一个元素,对比SimpleFunction的apply方法和PTransform的expand方法的实现方式得到验证。
2)MapElement.via(SimpleFunction)和ParDo.of(DoFn)
区别之前已经说过,DoFn的processElement方法的输入和输出都是从参数传入,而SimpleFunction的apply方法从参数传入输入,从return传出输出。
相同的是这2个方法处理的都是PCollection中的一个元素。
查看MapElement的expand方法源码:
@Override public PCollection<OutputT> expand(PCollection<? extends InputT> input) { checkNotNull(fn, "Must specify a function on MapElements using .via()"); return input.apply( "Map", ParDo.of( new DoFn<InputT, OutputT>() { @ProcessElement public void processElement(ProcessContext c) { c.output(fn.apply(c.element())); } //部分代码忽略 })); }可以看出其实也是实现了DoFn的子类,在DoFn的processElement方法中调用SimpleFunction对象的apply方法进行处理。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。