当前位置:   article > 正文

CDC系列(一)、Canal 集群部署及使用(带WebUI)_canal web

canal web

目录

前言

准备工作

MySQL开启Binlog

安装Canal Admin WEB UI

安装Canal Server

监控MySQL并导入Kafka

尾巴


前言

CDC(Change Data Capture)是一种捕获数据修改的技术方案,常常应用于异构数据源之间的数据同步。通常有两种解决方案:批式定时根据查询条件采集变更数据、监控数据源的操作日志。对于第一种批式的方案好处是门槛低成本低但坏处是可能会造成数据丢失以及数据有延迟等等,第二种日志方案好处很明显,比如对数据源侵入性低,数据时效性更高,不会有数据丢失的风险等等。在目前的关系型数据库中如MySQL、Oracle、SQLServer、Postgre等都提供了用于同步的日志解决方案,如MySQL基于binlog在主备之间进行同步。

本篇我们介绍的Canal由阿里开源,它将自己伪装成一个MySQL的Slave节点,通过拉取MySQL的binlog来达到实时采集数据库的操作日志的目的,在后面我们就可以将采集到的数据变更操作通过SparkStreaming、FlinkSQL、KafkaConnector等工具进行数据处理和导出到其他异构数据源。

准备工作

需要提前准备好下面几个组件的安装:

  1. JDK1.8:略
  2. MySQL5或8都行:Mysql 8.0.12解压版安装
  3. Kafka:Kafka系列(一)、2.6.0版本kafka集群搭建
  4. zookeeper:Zookeeper系列(三)、zk集群安装部署
  5. 下载Canal Admin 1.1.4版本:https://github.com/alibaba/canal/releases/download/canal-1.1.4/canal.admin-1.1.4.tar.gz
  6. 下载Canal Deployer 1.1.4版本:https://github.com/alibaba/canal/releases/download/canal-1.1.4/canal.deployer-1.1.4.tar.gz

MySQL开启Binlog

上面也提到,基于日志的CDC方案在MySQL中就是通过binlog来记录的,因此第一步我们先将准备好的MySQL开启binlog,开启binlog的操作也很简单,只需要在my.cnf内加入下面的内容即可:

  1. # 修改mysql配置文件
  2. vim /etc/my.cnf
  3. -----------------------
  4. [mysqld]
  5. #开启binlog
  6. log-bin=mysql-bin
  7. #日志记录方式,建议使用ROW模式
  8. binlog-format=ROW
  9. #给当前mysql一个server id,之后的CDC工具里配置的不能跟这个重复
  10. server_id=1

开启binlog之后重启mysql服务:

  1. #重复mysql服务
  2. service mysqld restart
  3. #查看mysql服务状态
  4. service mysqld status

进入mysql命令行,使用下面的命令查看binlog开启的情况:

  1. mysql> show variables like 'binlog_format';
  2. +---------------+-------+
  3. | Variable_name | Value |
  4. +---------------+-------+
  5. | binlog_format | ROW |
  6. +---------------+-------+
  7. 1 row in set (0.01 sec)
  8. mysql> show variables like 'log_bin';
  9. +---------------+-------+
  10. | Variable_name | Value |
  11. +---------------+-------+
  12. | log_bin | ON |
  13. +---------------+-------+
  14. 1 row in set (0.00 sec)

由于canal伪装成MySQL的从节点,因此需要在被监控的MySQL上给canal创建一个拥有复制权限的用户:

  1. #创建用户canal,密码canal_pwd
  2. CREATE USER canal IDENTIFIED BY 'canal_pwd';
  3. #如果创建用户时报错,密码不满足复杂度,可以使用下面的命令修改密码复杂度条件
  4. #查看密码策略
  5. SHOW VARIABLES LIKE 'validate_password%';
  6. #设置密码策略为LOW
  7. set global validate_password_policy=LOW;
  8. #设置密码最短位数
  9. set global validate_password_length=4;
  10. #授予canal用户复制binlog的权限
  11. GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
  12. -- GRANT ALL PRIVILEGES ON *.* TO 'canal'@'%' ;
  13. #刷新权限
  14. FLUSH PRIVILEGES;
  15. #查看canal用户的权限
  16. show grants for 'canal'

安装Canal Admin WEB UI

Canal Admin是一个是为canal提供整体配置管理、节点运维等面向运维的功能,提供相对友好的Web UI操作界面,方便用户快速和安全的操作,因此我们要先部署Canal admin,首先就要先给该应用一个管理数据库默认为canal_manager,这里我们就在被监控的MySQL实例上创建另一个用户canal_admin以及canal_manager库来作为canal admin的管理数据库(在生产环境中,Canal Admin的管理库和被监控binlog的MySQL一定是不在同一个MySQL实例上)。 

使用root账户进入MySQL命令行执行下面的命令: 

  1. #创建用户canal_admin
  2. CREATE USER canal_admin IDENTIFIED BY 'canal_admin_pwd';
  3. GRANT ALL PRIVILEGES ON *.* TO 'canal_admin'@'%' ;
  4. FLUSH PRIVILEGES;

 将下载到的CanalAdmin解压并配置yml文件:

  1. #解压canal admin的tar包
  2. tar -zxvf canal.admin-1.1.4.tar.gz -C /opt/app/canal_admin/
  3. #修改yml配置文件,主要修改canal admin的管理库DBhost和DBusername,DBpassword,最下面的canal admin的用户名和密码并不是canal admin web ui的用户,而是后门canal server和canal admin进行通信时的用户
  4. vim /opt/app/canal_admin/conf/application.yml
  5. -------------------------------------------------
  6. server:
  7. port: 8089
  8. spring:
  9. jackson:
  10. date-format: yyyy-MM-dd HH:mm:ss
  11. time-zone: GMT+8
  12. spring.datasource:
  13. address: 192.168.142.91:3306
  14. database: canal_manager
  15. username: canal_admin
  16. password: canal_admin_pwd
  17. driver-class-name: com.mysql.jdbc.Driver
  18. url: jdbc:mysql://${spring.datasource.address}/${spring.datasource.database}?useUnicode=true&characterEncoding=UTF-8&useSSL=false
  19. hikari:
  20. maximum-pool-size: 30
  21. minimum-idle: 1
  22. canal:
  23. adminUser: admin
  24. adminPasswd: admin

使用canal_admin用户进入MySQL命令行,执行/opt/app/canal_admin/conf/canal_manager.sql 脚本:

  1. # shell 进入mysql命令行
  2. [root@wyk01 ~]# mysql -ucanal_admin -pcanal_admin_pwd
  3. # mysql 命令行 执行canal_manager.sql脚本
  4. mysql> source /opt/app/canal_admin/conf/canal_manager.sql
  5. Query OK, 1 row affected (0.05 sec)
  6. Database changed
  7. Query OK, 0 rows affected (0.00 sec)
  8. ...
  9. ...
  10. Query OK, 0 rows affected (0.00 sec)

此时我们就准备好了canal admin服务,使用下面的命令启动:

/opt/app/canal_admin/bin/startup.sh 

在浏览器中输入ip:8089进入canal admin的web管理界面,默认管理员账号为admin/123456:

接下来我们通过canal admin管理界面来配置部署canal单机/集群。

点击操作-->主配置,配置该canal集群的主配置即对应之前canal版本中的canal.properties文件

点击载入模板

主要修改下面这些参数,其他参数默认即可:

  1. # canal admin config
  2. # 这里的密码就是前面在application.yml最后的参数提到的admin/admin,不过这里需要使用mysql加密后的密码,可以在mysql内通过命令 select password('canal') 获取加密串(去掉星号)
  3. canal.admin.manager = 10.1.174.10:8089
  4. canal.admin.port = 11110
  5. canal.admin.user = admin
  6. canal.admin.passwd = 4ACFE3202A5FF5CF467898FC58AAB1D615029441
  7. canal.zkServers = wyk01:2181,wyk02:2181,wyk03:2181
  8. #canal.instance.global.spring.xml = classpath:spring/file-instance.xml
  9. canal.instance.global.spring.xml = classpath:spring/default-instance.xml
  10. #监控到的binlog输出到kafka
  11. canal.serverMode = kafka
  12. canal.mq.servers = wyk01:9092,wyk02:9092,wyk03:9092

安装Canal Server

接下来安装canal server,在1.1.4之前的版本中没有canal admin管理界面,我们只能通过修改canal.properties文件来给canal配置,有了canal admin之后,每个canal server作为一个分布式节点同享刚才我们创建集群时的主配置,因此在canal server这里只需要配置连接到canal admin的配置即可。

解压下载到的canal deployer,然后修改配置文件:

  1. #解压canal deployer的tar包
  2. tar -zxvf canal.deployer-1.1.4.tar.gz -C /opt/app/canal_server/
  3. #修改配置文件
  4. vim /opt/app/canal_server/conf/canal_local.properties
  5. -------------------------------------------
  6. # register ip
  7. # 每台canal server的ip不一样
  8. canal.register.ip = wyk01
  9. #下面的配置在每台canal server上保持一致
  10. # canal admin config
  11. # 这里的密码就是前面在application.yml最后的参数提到的admin/admin,不过这里需要使用mysql加密后的密码,可以在mysql内通过命令 select password('canal') 获取加密串(去掉星号)
  12. canal.admin.manager = wyk01:8089
  13. canal.admin.port = 11110
  14. canal.admin.user = admin
  15. canal.admin.passwd = 4ACFE3202A5FF5CF467898FC58AAB1D615029441
  16. # admin auto register
  17. # 指向我们创建的mycanal集群
  18. canal.admin.register.auto = true
  19. canal.admin.register.cluster = mycanal
  20. -------------------------------------------

使用下面的命令启动canal server,会自动添加到canal admin的server管理页面:

/opt/app/canal_server/bin/startup.sh local

到这一步,该canal集群里只有一台canal服务,也可以提供服务,不过为了保证HA,我们这里再添加两个canal server节点,将canal_server目录分发到另外两台节点,只需要修改canal_local.properties内的 canal.register.ip参数即可。

  1. #一、wyk01: 将canal server 目录分发到wyk02,wyk03节点
  2. scp -r /opt/app/canal_server root@wyk02:/opt/app/
  3. scp -r /opt/app/canal_server root@wyk03:/opt/app/
  4. #二、wyk02 & wyk03: 修改canal_local.properties配置文件中下面的参数
  5. vim /opt/app/canal_server/conf/canal_local.properties
  6. -------------------------------------------
  7. # wyk02
  8. # register ip
  9. # 每台canal server的ip不一样
  10. canal.register.ip = wyk02
  11. -------------------------------------------
  12. # wyk03
  13. # register ip
  14. # 每台canal server的ip不一样
  15. canal.register.ip = wyk03
  16. #三、wyk02 & wyk03: 重启动canal server
  17. /opt/app/canal_server/bin/stop.sh
  18. /opt/app/canal_server/bin/startup.sh local

重新启动wyk02,wyk03节点的canal server之后,在canal admin的server管理页面点击刷新列表即可看到三个canal server都在同一个canal cluster内了: 

已注册到canal集群的canal server也可以在zookeeper的/otter/canal/cluster节点下看到:

  1. [zk: localhost:2181(CONNECTED) 9] ls /otter/canal/cluster
  2. [wyk01:11111, wyk02:11111, wyk03:11111]

监控MySQL并导入Kafka

我们已经部署好了canal集群,下面终于可以监控mysql的数据修改动作并将该动作导入kafka了,在之前1.1.4版本之前我们要配置instance.properties文件,通过canal admin,我们只需要在界面上载入模板修改对应参数即可应用到每个canal server:

本次测试我们来监控test_csdn这个库下的所有操作,只需要修改下面的参数即可,其他参数可以保持默认:

详细参数请参考官方文档:https://github.com/alibaba/canal/wiki/AdminGuide 

  1. # position info
  2. canal.instance.master.address=wyk01:3306
  3. # username/password
  4. # 这里的用户必须是刚才授权该库的binlog权限的用户
  5. canal.instance.dbUsername=canal
  6. canal.instance.dbPassword=canal_pwd
  7. # table regex
  8. # 配置监控test_csdn库下的所有表,这里的正则可以定制匹配规则,具体可参考官方文档:https://github.com/alibaba/canal/wiki/AdminGuide
  9. canal.instance.filter.regex=test_csdn\\..*
  10. # mq config
  11. # 指定输出到kafka的topic为:wyk_csdn_canal
  12. canal.mq.topic=wyk_csdn_canal

保存然后点击启动instance即可:

我们开启一个kafka的consuer命令行,然后在test_csdn库下做增删改查,验证kafka中有没有接收到CDC数据: 

  1. #开启kafka consumer
  2. bin/kafka-console-consumer.sh --bootstrap-server wyk01:9092,wyk02:9092,wyk03:9092 --topic wyk_csdn_canal
  1. -- 在mysql中造数据
  2. create database test_csdn;
  3. use test_csdn;
  4. -- 建表
  5. create table wyk_csdn(id int,name varchar(20),ins_ts timestamp);
  6. -- 插入2条数据
  7. insert into wyk_csdn values(1,'wyk1',current_timestamp());
  8. insert into wyk_csdn values(2,'wyk2',current_timestamp());
  9. -- 更新id=2的数据
  10. update wyk_csdn set name='wyk2_new' where id=2;
  11. -- 删除id=1的数据
  12. delete from wyk_csdn where id=1;
  13. -- 清空表
  14. truncate table wyk_csdn;
  15. -- 删除表
  16. drop table wyk_csdn;
  17. -- 修改表结构
  18. create table wyk_csdn2(id int,name varchar(20),ins_ts timestamp);
  19. alter table wyk_csdn2 add column(add_c text);
  20. -- 修改表名
  21. rename table wyk_csdn2 to wyk_csdn2_new;

 Canal json数据格式如下:

  1. {
  2. "data": null,
  3. "database": "test_csdn",
  4. "es": 1600756599000,
  5. "id": 2,
  6. "isDdl": true,
  7. "mysqlType": null,
  8. "old": null,
  9. "pkNames": null,
  10. "sql": "create table wyk_csdn(id int,name varchar(20),ins_ts timestamp)",
  11. "sqlType": null,
  12. "table": "wyk_csdn",
  13. "ts": 1600756600261,
  14. "type": "CREATE"
  15. }
  16. {
  17. "data": [
  18. {
  19. "id": "1",
  20. "name": "wyk1",
  21. "ins_ts": "2020-09-22 14:37:19"
  22. }
  23. ],
  24. "database": "test_csdn",
  25. "es": 1600756639000,
  26. "id": 3,
  27. "isDdl": false,
  28. "mysqlType": {
  29. "id": "int",
  30. "name": "varchar(20)",
  31. "ins_ts": "timestamp"
  32. },
  33. "old": null,
  34. "pkNames": null,
  35. "sql": "",
  36. "sqlType": {
  37. "id": 4,
  38. "name": 12,
  39. "ins_ts": 93
  40. },
  41. "table": "wyk_csdn",
  42. "ts": 1600756639895,
  43. "type": "INSERT"
  44. }
  45. {
  46. "data": [
  47. {
  48. "id": "2",
  49. "name": "wyk2",
  50. "ins_ts": "2020-09-22 14:37:19"
  51. }
  52. ],
  53. "database": "test_csdn",
  54. "es": 1600756639000,
  55. "id": 3,
  56. "isDdl": false,
  57. "mysqlType": {
  58. "id": "int",
  59. "name": "varchar(20)",
  60. "ins_ts": "timestamp"
  61. },
  62. "old": null,
  63. "pkNames": null,
  64. "sql": "",
  65. "sqlType": {
  66. "id": 4,
  67. "name": 12,
  68. "ins_ts": 93
  69. },
  70. "table": "wyk_csdn",
  71. "ts": 1600756639895,
  72. "type": "INSERT"
  73. }
  74. {
  75. "data": [
  76. {
  77. "id": "2",
  78. "name": "wyk2_new",
  79. "ins_ts": "2020-09-22 14:37:48"
  80. }
  81. ],
  82. "database": "test_csdn",
  83. "es": 1600756668000,
  84. "id": 4,
  85. "isDdl": false,
  86. "mysqlType": {
  87. "id": "int",
  88. "name": "varchar(20)",
  89. "ins_ts": "timestamp"
  90. },
  91. "old": [
  92. {
  93. "name": "wyk2",
  94. "ins_ts": "2020-09-22 14:37:19"
  95. }
  96. ],
  97. "pkNames": null,
  98. "sql": "",
  99. "sqlType": {
  100. "id": 4,
  101. "name": 12,
  102. "ins_ts": 93
  103. },
  104. "table": "wyk_csdn",
  105. "ts": 1600756668632,
  106. "type": "UPDATE"
  107. }
  108. {
  109. "data": [
  110. {
  111. "id": "1",
  112. "name": "wyk1",
  113. "ins_ts": "2020-09-22 14:37:19"
  114. }
  115. ],
  116. "database": "test_csdn",
  117. "es": 1600756682000,
  118. "id": 5,
  119. "isDdl": false,
  120. "mysqlType": {
  121. "id": "int",
  122. "name": "varchar(20)",
  123. "ins_ts": "timestamp"
  124. },
  125. "old": null,
  126. "pkNames": null,
  127. "sql": "",
  128. "sqlType": {
  129. "id": 4,
  130. "name": 12,
  131. "ins_ts": 93
  132. },
  133. "table": "wyk_csdn",
  134. "ts": 1600756682711,
  135. "type": "DELETE"
  136. }
  137. {
  138. "data": null,
  139. "database": "test_csdn",
  140. "es": 1600756722000,
  141. "id": 6,
  142. "isDdl": true,
  143. "mysqlType": null,
  144. "old": null,
  145. "pkNames": null,
  146. "sql": "truncate table wyk_csdn",
  147. "sqlType": null,
  148. "table": "wyk_csdn",
  149. "ts": 1600756722959,
  150. "type": "TRUNCATE"
  151. }
  152. {
  153. "data": null,
  154. "database": "test_csdn",
  155. "es": 1600756727000,
  156. "id": 7,
  157. "isDdl": true,
  158. "mysqlType": null,
  159. "old": null,
  160. "pkNames": null,
  161. "sql": "DROP TABLE `wyk_csdn` /* generated by server */",
  162. "sqlType": null,
  163. "table": "wyk_csdn",
  164. "ts": 1600756728388,
  165. "type": "ERASE"
  166. }
  167. {
  168. "data": null,
  169. "database": "test_csdn",
  170. "es": 1600757190000,
  171. "id": 8,
  172. "isDdl": true,
  173. "mysqlType": null,
  174. "old": null,
  175. "pkNames": null,
  176. "sql": "create table wyk_csdn2(id int,name varchar(20),ins_ts timestamp)",
  177. "sqlType": null,
  178. "table": "wyk_csdn2",
  179. "ts": 1600757192968,
  180. "type": "CREATE"
  181. }
  182. {
  183. "data": null,
  184. "database": "test_csdn",
  185. "es": 1600757196000,
  186. "id": 9,
  187. "isDdl": true,
  188. "mysqlType": null,
  189. "old": null,
  190. "pkNames": null,
  191. "sql": "alter table wyk_csdn2 add column(add_c text)",
  192. "sqlType": null,
  193. "table": "wyk_csdn2",
  194. "ts": 1600757201221,
  195. "type": "ALTER"
  196. }
  197. {
  198. "data": null,
  199. "database": "test_csdn",
  200. "es": 1600758458000,
  201. "id": 10,
  202. "isDdl": true,
  203. "mysqlType": null,
  204. "old": null,
  205. "pkNames": null,
  206. "sql": "rename table wyk_csdn2 to wyk_csdn2_new",
  207. "sqlType": null,
  208. "table": "wyk_csdn2_new",
  209. "ts": 1600758460224,
  210. "type": "RENAME"
  211. }

尾巴

可以看到,Canal能够监控到数据库的alter table&view /create table&view/insert/update/delete/truncate/drop/rename等动作,已经非常的全面,甚至可以监控truncate动作,CanalAdmin为我们提供了可视化的配置,也给Canal提供了HA解决了单点故障的问题。后面介绍其他CDC工具如Maxwell、Debezium也可以实现类似的功能,区别其实都不大,都是通过监控binlog日志来进行数据变更的捕获,其次就是发出来的json格式不一样,获取这些数据变更动作之后,我们就可以有针对性的对它们进行处理同步到各种异构目标数据源了。

在后面的文章中我会介绍这三种主要的CDC工具的对比以及结合Flink 的使用。

希望本文对你有帮助,请点个赞鼓励一下作者吧~ 谢谢!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/836415
推荐阅读
相关标签
  

闽ICP备14008679号