赞
踩
Flink中的广播流(BroadcastStream)是一种特殊的流处理方式,它允许将一个流(通常是一个较小的流)广播到所有的并行任务中,从而实现在不同任务间共享数据的目的。广播流在处理配置信息、小数据集或者全局变量等场景下特别有用,因为这些数据需要在所有任务中保持一致且实时更新。
广播流的使用通常涉及以下步骤:
定义MapStateDescriptor:首先需要定义一个MapStateDescriptor来描述要广播的数据的格式。这个描述器指定了数据的键值对类型。
创建广播流:然后,需要将一个普通的流转换为广播流。这通常通过调用流的broadcast()
方法实现,并将MapStateDescriptor作为参数传入。
连接广播流与非广播流:一旦有了广播流,就可以将其与一个或多个非广播流(无论是Keyed流还是Non-Keyed流)连接起来。这通过调用非广播流的connect()
方法完成,并将广播流作为参数传入。连接后的流是一个BroadcastConnectedStream
,它提供了process()
方法用于处理数据。
处理数据:在process()
方法中,可以编写逻辑来处理非广播流和广播流的数据。根据非广播流的类型(Keyed或Non-Keyed),需要传入相应的KeyedBroadcastProcessFunction
或BroadcastProcessFunction
类型的处理函数。
广播流的一个典型使用场景是在处理数据时需要实时动态改变配置。例如,当需要从MySQL数据库中实时查询和更新某些关键字过滤规则时,如果直接在计算函数中进行查询,可能会阻塞整个计算过程甚至导致任务停止。通过使用广播流,可以将这些配置信息广播到所有相关任务的实例中,然后在计算过程中直接使用这些配置信息,从而提高计算效率和实时性。
总的来说,Flink的广播流提供了一种有效的方式来实现不同任务间的数据共享和实时更新,适用于各种需要全局数据或配置的场景。
功能:将用户信息进行广播,从Kafka中读取用户访问记录,判断访问用户是否存在
import java.time.LocalDateTime;
import java.time.format.DateTimeFormatter;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
import org.apache.commons.lang3.StringUtils;
import org.apache.flink.api.common.state.MapStateDescriptor;
import org.apache.flink.api.common.typeinfo.BasicTypeInfo;
import org.apache.flink.api.common.typeinfo.TypeHint;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.JsonNode;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.node.ObjectNode;
import org.apache.flink.streaming.api.datastream.BroadcastConnectedStream;
import org.apache.flink.streaming.api.datastream.BroadcastStream;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.BroadcastProcessFunction;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
import org.apache.flink.streaming.util.serialization.JSONKeyValueDeserializationSchema;
import org.apache.flink.util.Collector;
import flink.demo.data.UserVo;
/**
* 多流connect,并进行join
*
*/
public class BroadcastTest{
public static void main(String[] args) throws Exception {
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
Properties proterties = new Properties();
proterties.setProperty("bootstrap.servers", "10.168.88.88:9092");
proterties.setProperty("group.id", "test");
proterties.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
proterties.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
// proterties.setProperty("auto.offset.reset", "latest");
FlinkKafkaConsumer<ObjectNode> consumerVisit= new FlinkKafkaConsumer<>("test",
new JSONKeyValueDeserializationSchema(false), proterties);
DataStreamSource<ObjectNode> streamSource = env.addSource(consumerVisit);
DataStreamSource<Tuple2<String, List<UserVo>>> userStreamSource = env.addSource(new UserListSource());
MapStateDescriptor<String, List<UserVo>> descriptor =
new MapStateDescriptor<>(
"userStream",
BasicTypeInfo.STRING_TYPE_INFO,
TypeInformation.of(new TypeHint<List<UserVo>>() {}));
BroadcastStream<Tuple2<String, List<UserVo>>> broadcastStream = userStreamSource.broadcast(descriptor);
// 将数据流和控制流进行连接,利用控制流中的数据来控制字符串的输出
BroadcastConnectedStream<ObjectNode, Tuple2<String, List<UserVo>>> tmp=streamSource.connect(broadcastStream);
tmp.process(new UserPvProcessor()).print();
env.execute("kafkaTest");
}
private static class UserPvProcessor
extends BroadcastProcessFunction<ObjectNode, Tuple2<String, List<UserVo>>, String> {
private static final long serialVersionUID = 1L;
MapStateDescriptor<String, List<UserVo>> descriptor =
new MapStateDescriptor<>(
"userStream",
BasicTypeInfo.STRING_TYPE_INFO,
TypeInformation.of(new TypeHint<List<UserVo>>() {}));
@Override
//用户信息处理
public void processBroadcastElement(Tuple2<String, List<UserVo>> value, Context ctx, Collector<String> out)
throws Exception {
// 将接收到的控制数据放到 broadcast state 中
ctx.getBroadcastState(descriptor).put(value.f0, value.f1);
// 打印控制信息
System.out.println(Thread.currentThread().getName() + " 接收到用户信息 : "+value.f0+" " + value.f1);
}
@Override
//数据流
public void processElement(ObjectNode element, ReadOnlyContext ctx, Collector<String> out) throws Exception {
// 从 broadcast state 中拿到用户列表信息
List<UserVo> userList = ctx.getBroadcastState(descriptor).get("userList");
String time=LocalDateTime.now().format(DateTimeFormatter.ofPattern("HH:mm:ss"));
if(userList!=null&&userList.size()>0) {
Map<String,String> userMap=new HashMap<>();
for(UserVo vo:userList) {
userMap.put(vo.getUserid(), vo.getUserName());
}
// System.out.println(userMap);
JsonNode value = element.get("value");
String userid=value.get("user").asText();
String userName=userMap.get(userid);
if (StringUtils.isNotBlank(userName)) {
out.collect(Thread.currentThread().getName()+"存在用户"+userid+" "+userName +" "+time);
}else {
out.collect(Thread.currentThread().getName()+"不存在用户"+userid+" "+time );
}
}else {
out.collect(Thread.currentThread().getName()+"不存在用户"+element.get("value")+" "+time );
}
}
}
}
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。