当前位置:   article > 正文

Logstash数据同步_logstash更新es数据

logstash更新es数据

Logstash 是 Elastic 技术栈中的一个技术,它是一个数据采集引擎,可以从数据库采集数据到 ES 中。可以通过设置 自增 ID 主键 或 更新时间 来控制数据的自动同步:

  • 自增 ID 主键:Logstatsh 会有定时任务,如果发现有主键的值大于先前同步记录的主键值,就会将对应的增量数据同步到 ES 中
  • 更新时间:其实原理与主键类似,不过如果设置使用主键作为依据的话,那么数据库的数据更新就不会被识别从而更新到 ES 中。

一、安装

1. 下载地址:https://www.elastic.co/cn/downloads/past-releases#logstash

  • 注:使用Logstatsh的版本号与elasticsearch版本号需要保持一致

2. 上传并解压

先上传到服务器 /home/software/ 下,然后解压,并将解压后的文件夹移动到 /usr/local/ 下

  1. tar -zxvf logstash-7.6.2.tar.gz
  2. mv logstash-7.6.2 /usr/local/

二、配置

1. 首先在 Elasticsearch 中创建一个索引:didiok-items

2. 在 /usr/local/logstash-7.6.2/ 下创建文件夹 sync/

将数据库驱动 mysql-connector-java-5.1.41.jar 包上传到  /usr/local/logstash-7.6.2/sync/ 下,

  1. cd /usr/local/logstash-7.6.2/
  2. mkdir sync
  3. cd sync/

3. 编写数据同步的SQL脚本

  1. SELECT
  2. i.id as id,
  3. i.item_name as itemName,
  4. i.sell_counts as sellCounts,
  5. ii.url as imgUrl,
  6. tempSpec.price_discount as price,
  7. i.updated_time as updated_time
  8. FROM
  9. items i
  10. LEFT JOIN
  11. items_img ii
  12. on
  13. i.id = ii.item_id
  14. LEFT JOIN
  15. (SELECT item_id,MIN(price_discount) as price_discount from items_spec GROUP BY item_id) tempSpec
  16. on
  17. i.id = tempSpec.item_id
  18. WHERE
  19. ii.is_main = 1
  20. and
  21. i.updated_time >= :sql_last_value
  22. # :sql_last_value 是 logstash 每次同步完成之后保存的的边界值,这里保存的是 updated_time ,用于下次数据同步时,大于等于 updated_time 的数据才会进行同步

将sql脚本 保存到 /usr/local/logstash-7.6.2/sync/didiok-items.sql 文件中 

4.  在 sync/ 下创建 配置文件 logstash-db-sync.conf,内容如下:

  1. input {
  2. jdbc {
  3. # 设置 MySql/MariaDB 数据库url以及数据库名称
  4. jdbc_connection_string => "jdbc:mysql://192.168.1.6:3306/didiok-shop-dev?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true"
  5. # 用户名和密码
  6. jdbc_user => "root"
  7. jdbc_password => "root"
  8. # 数据库驱动所在位置,可以是绝对路径或者相对路径
  9. jdbc_driver_library => "/usr/local/logstash-7.6.2/sync/mysql-connector-java-5.1.41.jar"
  10. # 驱动类名
  11. jdbc_driver_class => "com.mysql.jdbc.Driver"
  12. # 开启分页
  13. jdbc_paging_enabled => "true"
  14. # 分页每页数量,可以自定义
  15. jdbc_page_size => "10000"
  16. # 执行的sql文件路径
  17. statement_filepath => "/usr/local/logstash-7.6.2/sync/didiok-items.sql"
  18. # 设置定时任务间隔 含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
  19. schedule => "* * * * *"
  20. # 索引类型
  21. type => "_doc"
  22. # 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
  23. use_column_value => true
  24. # 记录上一次追踪的结果值
  25. last_run_metadata_path => "/usr/local/logstash-7.6.2/sync/track_time"
  26. # 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
  27. tracking_column => "updated_time"
  28. # tracking_column 对应字段的类型
  29. tracking_column_type => "timestamp"
  30. # 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
  31. clean_run => false
  32. # 数据库字段名称大写转小写
  33. lowercase_column_names => false
  34. }
  35. }
  36. output {
  37. elasticsearch {
  38. # es地址
  39. hosts => ["192.168.1.187:9200"]
  40. # 同步的索引名
  41. index => "didiok-items"
  42. # 设置_docID和数据库中的id相同
  43. document_id => "%{id}"
  44. }
  45. # 日志输出
  46. stdout {
  47. codec => json_lines
  48. }}

5. 启动 logstash

  1. cd /usr/local/logstash-7.6.2/bin
  2. ./logstash -f /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf

如果启动过程中报错如下:

报这个错是虚拟机内存不足,是因为这个Logstash要的内存太大了。这个插件在初始化的时候要了一个g的内存,但是虚拟机没有这么多的内存,所以把这个内存改小就行了。

(!!!但是,这样好像会导致 logstash 启动不了,还是想办法扩大内存吧 ,下面的方法仅供参考)

修改 /usr/local/logstash-7.6.2/config/jvm.options ,这里原来是 1g,修改成 256m:

三、在自定义模板中配置中文分词器

首先在 ES 中创建索引 didiok-items,之后启动 logstash,然后再进行以下操作。

1. 查看Logstash默认模板

请求方式:GET

路径:http://localhost:9200/_template/logstash

2. 将查询出来的模板复制出来,进行修改如下(这里只修改了3处):

  1. {
  2.     "order": 0,
  3.     "version": 1, # 修改1
  4.     "index_patterns": ["*"], # 修改2
  5.     "settings": {
  6.         "index": {
  7.             "refresh_interval": "5s"
  8.         }
  9.     },
  10.     "mappings": {
  11.         "_default_": {
  12.             "dynamic_templates": [
  13.                 {
  14.                     "message_field": {
  15.                         "path_match": "message",
  16.                         "match_mapping_type": "string",
  17.                         "mapping": {
  18.                             "type": "text",
  19.                             "norms": false
  20.                         }
  21.                     }
  22.                 },
  23.                 {
  24.                     "string_fields": {
  25.                         "match": "*",
  26.                         "match_mapping_type": "string",
  27.                         "mapping": {
  28.                             "type": "text",
  29.                             "norms": false,
  30.                             "analyzer": "ik_max_word", # 修改3 加入中文分词器
  31.                             "fields": {
  32.                                 "keyword": {
  33.                                     "type": "keyword",
  34.                                     "ignore_above": 256
  35.                                 }
  36.                             }
  37.                         }
  38.                     }
  39.                 }
  40.             ],
  41.             "properties": {
  42.                 "@timestamp": {
  43.                     "type": "date"
  44.                 },
  45.                 "@version": {
  46.                     "type": "keyword"
  47.                 },
  48.                 "geoip": {
  49.                     "dynamic": true,
  50.                     "properties": {
  51.                         "ip": {
  52.                             "type": "ip"
  53.                         },
  54.                         "location": {
  55.                             "type": "geo_point"
  56.                         },
  57.                         "latitude": {
  58.                             "type": "half_float"
  59.                         },
  60.                         "longitude": {
  61.                             "type": "half_float"
  62.                         }
  63.                     }
  64.                 }
  65.             }
  66.         }
  67.     },
  68.     "aliases": {}
  69. }

之后将其保存为  /usr/local/logstash-7.6.2/sync/logstash-ik.json

3. 在 /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf 文件中进行修改,加入以下内容:

  1. # 定义模板名称
  2. template_name => "myik"
  3. # 模板所在位置
  4. template => "/usr/local/logstash-7.6.2/sync/logstash-ik.json"
  5. # 重写模板
  6. template_overwrite => true
  7. # 默认为true,false关闭logstash自动管理模板功能,如果自定义模板,则设置为false
  8. manage_template => false

4. 重新运行Logstash进行同步

./logstash -f /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf

中文分词器没有设置成功? 

试试下面的解决方案:

先通过postman请求 http://192.168.1.187:9200/_template/logstash,获取的json放入logstash-ik.json中,然后在 /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf 文件中设置manage_template => true,然后启动logstash,启动后 ES 的 didiok-items 索引是不正确的。

删除索引,并重新创建索引 didiok-items。

然后 postman 调 http://192.168.1.187:9200/_template/myik 拿到的 myik 的 json 重新放入logstash-ik.json中,配置 logstash-db-sync.conf  改为 manage_template => false,

再次启动logstash就能在 didiok-items 的mapping中显示中文分词器了。

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号