当前位置:   article > 正文

MySQL同步ES实战,肝到爆!_es和数据库数据同步

es和数据库数据同步

技术是什么?就是拿来玩的,边玩边学,才能成长得更快。

之前已经给大家讲解了 MySQL 同步 ES 的几种方案,下面就教大家如何通过 Canal,将 MySQL 同步到 ES,文章内容绝对妥妥干货!

本文会先讲解需要用到的基础知识,然后再是软件安装,最后就是实战部分。

不 说,上文章目录:

01 基础知识

1.1 主从复制原理

MySQL 的主从复制是依赖于 binlog,也就是记录 MySQL 上的所有变化并以二进制形式保存在磁盘上二进制日志文件。

主从复制就是将 binlog 中的数据从主库传输到从库上,一般这个过程是异步的,即主库上的操作不会等待 binlog 同步地完成。

详细流程如下:

  1. 主库写 binlog:主库的更新 SQL(update、insert、delete) 被写到 binlog;
  2. 主库发送 binlog:主库创建一个 log dump 线程来发送 binlog 给从库;
  3. 从库写 relay log:从库在连接到主节点时会创建一个 IO 线程,以请求主库更新的 binlog,并且把接收到的 binlog 信息写入一个叫做 relay log 的日志文件;
  4. 从库回放:从库还会创建一个 SQL 线程读取 relay log 中的内容,并且在从库中做回放,最终实现主从的一致性。

1.2 Cannel 基础

Canel 是一款常用的数据同步工具,其原理是基于 Binlog 订阅的方式实现,模拟一个 MySQL Slave 订阅 Binlog 日志,从而实现 CDC(Change Data Capture),将已提交的更改发送到下游。

主要流程如下:

  1. Canal 服务端向 MySQL 的 master 节点传输 dump 协议;
  2. MySQL 的 master 节点接收到 dump 请求后推送 Binlog 日志给 Canal 服务端,解析 Binlog 对象(原始为 byte 流)转成 Json 格式;
  3. Canal 客户端通过 TCP 协议或 MQ 形式监听 Canal 服务端,同步数据到 ES。

下面是 Cannel 执行的核心流程,其中 Binlog Parser 主要负责 Binlog 的提取、解析和推送,EventSink 负责数据的过滤 、路由和加工,仅作了解即可。

02 软件下载安装

我的电脑是 Macos-x64,所以后面的软件安装,都是基于这个。

2.1 Java JDK

由于 Canal 和 ES 的安装,都强依赖 JDK,所以这里有必要先说明。

前方高能,这里有坑!!!

如果你选的版本不对,ES 安装可能会失败,然后 Canal 同步数据到 ES 时,也会出现很多诡异的问题。

2.2 MySQL

MySQL 大家应该都安装了,这里需要打开 MySQL 的 BinLog。

我是 Mac,主要新建一个 my.cnf 文件,然后再重启 MySQL。

这里重启 MySQL,我搞了半天,BinLog 开启后,会看到 BinLog 日志。

然后需要创建一个账号,账号和密码都是 Cannal,给后面 Canal 使用。

GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'localhost' IDENTIFIED BY 'canal' ;

2.3 Canal

下载 canal.adapter 和 canal.deployer 两个就可以:

  • canal.deployer:相当于 canal 的服务端,启动它才可以在客户端接收数据库变更信息。
  • canal.adapter:增加客户端数据落地的适配及启动功能(当 deployer 接收到消息后,会根据不同的目标源做适配,比如是 es 目标源适配和 hbase 适配等等)。

备注:canal.admin 为 canal提供整体配置管理、节点运维等面向运维的功能,提供相对友好的 WebUI 操作界面,方便更多用户快速和安全的操作,我这边使用的是单机的,因此就没有下载安装,大家也可以拉 source code 源码去研究下。

2.4 ES

Mac 安装 ES 非常简单:

brew install elasticsearch

安装细节不赘述,安装成功后,输入以下网址:

http://localhost:9200/?pretty

2.5 Kibana

它是 ES 的界面化操作工具,安装细节不赘述,安装成功后,输入以下网址:

http://localhost:5601/app/dev_tools#/console

2.6 IK 分词器

它是 ES 的分词器,安装细节不赘述,安装成功后,可以验证一下分词效果。

2.7 小节

MySQL 开启 BinLog,这个不难,主要观察是否有 BinLog 日志。

Canal 的安装是最复杂的,涉及到很多配置修改,后面会讲解。

最后是 ES + Kibana + IK 分词器,这个其实也不难,主要关注 ES 绑定的 JDK 版本,三款软件的安装可以参考这篇:https://blog.csdn.net/weixin_46049028/article/details/129956485

03 Canal 配置

3.1 canal.deployer 配置

修改 conf—>example 文件夹的 instance.properties 监听的数据库配置。

这里主要修改的监听 MySQL 的 URL、用户名和密码。

这里默认的账号密码就是 canal,前面已经教大家如何创建了。

3.2 canal.deployer 启动

在 canal.deployer 中的 bin 文件下去启动命令 startup.sh

这样就代表已经启动了,我们可以去看下启动日志。

上面 start successful 代表已经启动成功,并且已经监听我的 MySQL 数据库。

3.3 canal.adapte 配置

Step1: 先把 adapter 下面的 bootstrap.yml,全部注释掉,否则会提示你 XX 表不存在,这里坑了我好惨。

Step2: 再修改 adapter 的 application.yml 配置文件。

这里的坑,一般就是 mysql 的账号密码不对,或者给的 es 链接,没有"http://"前缀,这些都是我过踩的坑。

Step3: 修改我们在 application.yml 中配置的目标数据源 es7 文件夹内容。

由于我们这里是对表 article 进行去监听,因此我们在 es7 文件夹中去创建 article.yml 文件。

由于我们需要把技术派项目中的文章查询功能,改造成 ES 的查询方式,所以我们就把技术派的文章表 article,同步到 ES 中。

yml文件配置如下:

  1. dataSourceKey: defaultDS # 源数据源的key, 对应上面配置的srcDataSources中的值
  2. destination: example # canal的instance或者MQ的topic
  3. groupId: g1 # 对应MQ模式下的groupId, 只会同步对应groupId的数据
  4. esMapping:
  5. _index: article # es 的索引名称
  6. _id: _id # es 的_id, 如果不配置该项必须配置下面的pk项_id则会由es自动分配
  7. sql: "SELECT t.id AS _id,t.id,t.user_id,t.article_type,t.title,t.short_title,t.picture,
  8. t.summary,t.category_id,t.source,t.source_url,t.offical_stat,t.topping_stat,
  9. t.cream_stat,t.`status`,t.deleted,t.create_time,t.update_time
  10. FROM article t" # sql映射
  11. commitBatch: 1 # 提交批大小

Step4: 在 Kibana 中创建 ES 的 article 索引

代码如下:

  1. PUT /article
  2. {
  3. "mappings" : {
  4. "properties" : {
  5. "id" : {
  6. "type" : "integer"
  7. },
  8. "user_id" : {
  9. "type" : "integer"
  10. },
  11. "article_type" : {
  12. "type" : "integer"
  13. },
  14. "title" : {
  15. "type" : "text",
  16. "analyzer": "ik_max_word"
  17. },
  18. "short_title" : {
  19. "type" : "text",
  20. "analyzer": "ik_max_word"
  21. },
  22. "picture" : {
  23. "type" : "text",
  24. "analyzer": "ik_max_word"
  25. },
  26. "summary" : {
  27. "type" : "text",
  28. "analyzer": "ik_max_word"
  29. },
  30. "category_id" : {
  31. "type" : "integer"
  32. },
  33. "source" : {
  34. "type" : "integer"
  35. },
  36. "source_url" : {
  37. "type" : "text",
  38. "analyzer": "ik_max_word"
  39. },
  40. "offical_stat" : {
  41. "type" : "integer"
  42. },
  43. "topping_stat" : {
  44. "type" : "integer"
  45. },
  46. "cream_stat" : {
  47. "type" : "integer"
  48. },
  49. "status" : {
  50. "type" : "integer"
  51. },
  52. "deleted" : {
  53. "type" : "integer"
  54. },
  55. "create_time" : {
  56. "type" : "date"
  57. },
  58. "update_time" : {
  59. "type" : "date"
  60. }
  61. }
  62. }
  63. }

3.4 canal.adapte 启动

我们看下启动日志:

上面没有任何报错,并且已经启动了 8081 端口,说明已经启动成功,此时我们就可以操作了。

04 数据同步实战

4.1 全量同步

在开始 adapter 之后,我们应该先来一把全量数据同步,在源码中提供了一个接口进行全量同步,命令如下:

curl http://127.0.0.1:8081/etl/es7/article.yml -X POST

上面就是执行同步成功后,提示已经导入 10 条。

4.2 增量同步

增量数据就是当我在 MySQL 中 update、delete 和 insert 时,那么 ES 中数据也会对应发生变化,我下面演示下修改:

日志打印如下:

ES查询结果如下:

上面结果中说明 ES 已经更改成功。

05 总结

我们再回顾一下整体执行流程:

写到这里,就结束了,是不是满满的干货呢?基本是手把手教你如何将 MySQL 同步到 ES,不仅是增量同步,还包括全量同步,如果你的项目也需要用到该场景,基本可以直接照搬

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/882769
推荐阅读
相关标签
  

闽ICP备14008679号