赞
踩
Apache Doris 代码仓库地址:apache/incubator-doris 欢迎大家关注加星
本文通过实例来演示怎么通过Flink CDC 结合Doris的Flink Connector实现从Mysql数据库中监听数据并实时入库到Doris数仓对应的表中。
CDC 是变更数据捕获(Change Data Capture)技术的缩写,它可以将源数据库(Source)的增量变动记录,同步到一个或多个数据目的(Sink)。在同步过程中,还可以对数据进行一定的处理,例如分组(GROUP BY)、多表的关联(JOIN)等。
例如对于电商平台,用户的订单会实时写入到某个源数据库;A 部门需要将每分钟的实时数据简单聚合处理后保存到 Redis 中以供查询,B 部门需要将当天的数据暂存到 Elasticsearch 一份来做报表展示,C 部门也需要一份数据到 ClickHouse 做实时数仓。随着时间的推移,后续 D 部门、E 部门也会有数据分析的需求,这种场景下,传统的拷贝分发多个副本方法很不灵活,而 CDC 可以实现一份变动记录,实时处理并投递到多个目的地。
CDC 的技术方案非常多,目前业界主流的实现机制可以分为两种:
Flink在1.11版本中新增了CDC的特性,简称 改变数据捕获。名称来看有点乱,我们先从之前的数据架构来看CDC的内容。
以上是之前的mysq binlog
日志处理流程,例如 canal 监听 binlog 把日志写入到 kafka 中。而 Apache Flink 实时消费 Kakfa 的数据实现 mysql 数据的同步或其他内容等。拆分来说整体上可以分为以下几个阶段。
整体的处理链路较长,需要用到的组件也比较多。Apache Flink CDC可以直接从数据库获取到binlog供下游进行业务计算分析
提供 MySQL CDC 2.0,核心 feature 包括
网上有测试文档显示用 TPC-DS 数据集中的 customer 表进行了测试,Flink 版本是 1.13.1,customer 表的数据量是 6500 万条,Source 并发为 8,全量读取阶段:
Apache Doris是一个现代化的MPP分析型数据库产品。仅需亚秒级响应时间即可获得查询结果,有效地支持实时数据分析。Apache Doris的分布式架构非常简洁,易于运维,并且可以支持10PB以上的超大数据集。
Apache Doris可以满足多种数据分析需求,例如固定历史报表,实时数据分析,交互式数据分析和探索式数据分析等。令您的数据分析工作更加简单高效!
Flink Doris Connector 是 doris 社区为了方便用户使用 Flink 读写Doris数据表的一个扩展,
目前 doris 支持 Flink 1.11.x ,1.12.x,1.13.x,Scala版本:2.12.x
目前Flink doris connector目前控制入库通过两个参数:
这两参数同时起作用,那个条件先到就触发写doris表操作,
注意:
这里注意的是要启用 http v2 版本,具体在 fe.conf 中配置 enable_http_server_v2=true
,同时因为是通过 fe http rest api 获取 be 列表,这俩需要配置的用户有 admin 权限。
首先我们要编译Doris的Flink connector,也可以通过下面的地址进行下载:
https://github.com/hf200012/hf200012.github.io/raw/main/lib/doris-flink-1.0-SNAPSHOT.jar
注意:
这里因为Doris 的Flink Connector 是基于Scala 2.12.x版本进行开发的,所有你在使用Flink 的时候请选择对应scala 2.12的版本,
如果你使用上面地址下载了相应的jar,请忽略下面的编译内容部分
在 doris 的 docker 编译环境 apache/incubator-doris:build-env-1.2
下进行编译,因为 1.3 下面的JDK 版本是 11,会存在编译问题。
在 extension/flink-doris-connector/ 源码目录下执行:
sh build.sh
编译成功后,会在 output/
目录下生成文件 doris-flink-1.0.0-SNAPSHOT.jar
。将此文件复制到 Flink
的 ClassPath
中即可使用 Flink-Doris-Connector
。例如,Local
模式运行的 Flink
,将此文件放入 jars/
文件夹下。Yarn
集群模式运行的Flink
,则将此文件放入预部署包中。
针对Flink 1.13.x版本适配问题
- <properties>
- <scala.version>2.12</scala.version>
- <flink.version>1.11.2</flink.version>
- <libthrift.version>0.9.3</libthrift.version>
- <arrow.version>0.15.1</arrow.version>
- <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
- <doris.home>${basedir}/../../</doris.home>
- <doris.thirdparty>${basedir}/../../thirdparty</doris.thirdparty>
- </properties>
只需要将这里的 flink.version
改成和你 Flink 集群版本一致,重新编辑即可
这里我们是通过Flink Sql Client 方式来进行操作。
这里我们演示使用的软件版本:
首先下载和安装 Flink :
https://dlcdn.apache.org/flink/flink-1.13.3/flink-1.13.3-bin-scala_2.12.tgz
这里演示使用的是本地单机模式,
# wget https://dlcdn.apache.org/flink/flink-1.12.5/flink-1.12.5-bin-scala_2.12.tgz # tar zxvf flink-1.12.5-bin-scala_2.12.tgz
下载Flink CDC相关Jar包:
这里注意Flink CDC 和Flink 的版本对应关系
- # wget https://dlcdn.apache.org/flink/flink-1.13.3/flink-1.13.3-bin-scala_2.12.tgz
- # tar zxvf flink-1.13.3-bin-scala_2.12.tgz
- # cd flink-1.13.3
- # wget https://repo1.maven.org/maven2/com/ververica/flink-connector-mysql-cdc/2.0.2/flink-connector-mysql-cdc-2.0.2.jar -P ./lib/
- # wget https://github.com/hf200012/hf200012.github.io/raw/main/lib/doris-flink-1.0-SNAPSHOT.jar -P ./lib/
这里我们使用的是本地单机模式
- # bin/start-cluster.sh
- Starting cluster.
- Starting standalonesession daemon on host doris01.
- Starting taskexecutor daemon on host doris01.
我们通过web访问(默认端口是8081)启动起来Flink 集群,可以看到集群正常启动
具体安装部署Doris的方法,参照下面的连接:
https://hf200012.github.io/2021/09/Apache-Doris-环境安装部署
进入 Docker 容器修改/etc/my.cnf 文件,在 [mysqld] 下面添加以下内容,
- log_bin=mysql_bin
- binlog-format=Row
- server-id=1
然后重启Mysql
systemctl restart mysqld
- CREATE TABLE `test_cdc` (
- `id` int NOT NULL AUTO_INCREMENT,
- `name` varchar(255) DEFAULT NULL,
- PRIMARY KEY (`id`)
- ) ENGINE=InnoDB
- CREATE TABLE `doris_test` (
- `id` int NULL COMMENT "",
- `name` varchar(100) NULL COMMENT ""
- ) ENGINE=OLAP
- UNIQUE KEY(`id`)
- COMMENT "OLAP"
- DISTRIBUTED BY HASH(`id`) BUCKETS 1
- PROPERTIES (
- "replication_num" = "3",
- "in_memory" = "false",
- "storage_format" = "V2"
- );
- ./bin/sql-client.sh embedded
- > set execution.result-mode=tableau;
image.png
- CREATE TABLE test_flink_cdc (
- id INT,
- name STRING,
- primary key(id) NOT ENFORCED
- ) WITH (
- 'connector' = 'mysql-cdc',
- 'hostname' = 'localhost',
- 'port' = '3306',
- 'username' = 'root',
- 'password' = 'password',
- 'database-name' = 'demo',
- 'table-name' = 'test_cdc'
- );
执行查询创建的Mysql映射表,显示正常
select * from test_flink_cdc;
使用Doris Flink Connector创建 Doris映射表
- CREATE TABLE doris_test_sink (
- id INT,
- name STRING
- )
- WITH (
- 'connector' = 'doris',
- 'fenodes' = 'localhost:8030',
- 'table.identifier' = 'db_audit.doris_test',
- 'sink.batch.size' = '2',
- 'sink.batch.interval'='1',
- 'username' = 'root',
- 'password' = ''
- )
在命令行下执行上面的语句,可以看到创建表成功,然后执行查询语句,验证是否正常
select * from doris_test_sink;
执行插入操作,将Mysql 里的数据通过 Flink CDC结合Doris Flink Connector方式插入到 Doris中
INSERT INTO doris_test_sink select id,name from test_flink_cdc
提交成功之后我们在Flink的Web界面可以看到相关的Job任务信息
- INSERT INTO test_cdc VALUES (123, 'this is a update');
- INSERT INTO test_cdc VALUES (1212, '测试flink CDC');
- INSERT INTO test_cdc VALUES (1234, '这是测试');
- INSERT INTO test_cdc VALUES (11233, 'zhangfeng_1');
- INSERT INTO test_cdc VALUES (21233, 'zhangfeng_2');
- INSERT INTO test_cdc VALUES (31233, 'zhangfeng_3');
- INSERT INTO test_cdc VALUES (41233, 'zhangfeng_4');
- INSERT INTO test_cdc VALUES (51233, 'zhangfeng_5');
- INSERT INTO test_cdc VALUES (61233, 'zhangfeng_6');
- INSERT INTO test_cdc VALUES (71233, 'zhangfeng_7');
- INSERT INTO test_cdc VALUES (81233, 'zhangfeng_8');
- INSERT INTO test_cdc VALUES (91233, 'zhangfeng_9');
首先停掉Insert into这个任务,因为我是在本地单机模式,只有一个task任务,所以要停掉,然后在命令行执行查询语句才能看到数据
重新启动Insert into任务
修改Mysql表里的数据
update test_cdc set name='这个是验证修改的操作' where id =123
再去观察Doris表中的数据,你会发现已经修改
注意这里如果要想Mysql表里的数据修改,Doris里的数据也同样修改,Doris数据表的模型要是Unique key模型,其他数据模型(Aggregate Key 和 Duplicate Key)不能进行数据的更新操作。
目前Doris Flink Connector 还不支持删除操作,后面计划会加上这个操作
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。