赞
踩
Logstash 是 Elastic 技术栈中的一个技术,它是一个数据采集引擎,可以从数据库采集数据到 ES 中。可以通过设置 自增 ID 主键 或 更新时间 来控制数据的自动同步:
先上传到服务器 /home/software/ 下,然后解压,并将解压后的文件夹移动到 /usr/local/ 下
- tar -zxvf logstash-7.6.2.tar.gz
-
- mv logstash-7.6.2 /usr/local/
将数据库驱动 mysql-connector-java-5.1.41.jar 包上传到 /usr/local/logstash-7.6.2/sync/ 下,
- cd /usr/local/logstash-7.6.2/
- mkdir sync
- cd sync/
- SELECT
- i.id as id,
- i.item_name as itemName,
- i.sell_counts as sellCounts,
- ii.url as imgUrl,
- tempSpec.price_discount as price,
- i.updated_time as updated_time
- FROM
- items i
- LEFT JOIN
- items_img ii
- on
- i.id = ii.item_id
- LEFT JOIN
- (SELECT item_id,MIN(price_discount) as price_discount from items_spec GROUP BY item_id) tempSpec
- on
- i.id = tempSpec.item_id
- WHERE
- ii.is_main = 1
- and
- i.updated_time >= :sql_last_value
-
- # :sql_last_value 是 logstash 每次同步完成之后保存的的边界值,这里保存的是 updated_time ,用于下次数据同步时,大于等于 updated_time 的数据才会进行同步
将sql脚本 保存到 /usr/local/logstash-7.6.2/sync/didiok-items.sql 文件中
- input {
- jdbc {
- # 设置 MySql/MariaDB 数据库url以及数据库名称
- jdbc_connection_string => "jdbc:mysql://192.168.1.6:3306/didiok-shop-dev?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true"
- # 用户名和密码
- jdbc_user => "root"
- jdbc_password => "root"
- # 数据库驱动所在位置,可以是绝对路径或者相对路径
- jdbc_driver_library => "/usr/local/logstash-7.6.2/sync/mysql-connector-java-5.1.41.jar"
- # 驱动类名
- jdbc_driver_class => "com.mysql.jdbc.Driver"
- # 开启分页
- jdbc_paging_enabled => "true"
- # 分页每页数量,可以自定义
- jdbc_page_size => "10000"
- # 执行的sql文件路径
- statement_filepath => "/usr/local/logstash-7.6.2/sync/didiok-items.sql"
- # 设置定时任务间隔 含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
- schedule => "* * * * *"
- # 索引类型
- type => "_doc"
- # 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
- use_column_value => true
- # 记录上一次追踪的结果值
- last_run_metadata_path => "/usr/local/logstash-7.6.2/sync/track_time"
- # 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
- tracking_column => "updated_time"
- # tracking_column 对应字段的类型
- tracking_column_type => "timestamp"
- # 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
- clean_run => false
- # 数据库字段名称大写转小写
- lowercase_column_names => false
- }
- }
- output {
- elasticsearch {
- # es地址
- hosts => ["192.168.1.187:9200"]
- # 同步的索引名
- index => "didiok-items"
- # 设置_docID和数据库中的id相同
- document_id => "%{id}"
-
- }
- # 日志输出
- stdout {
- codec => json_lines
- }}
- cd /usr/local/logstash-7.6.2/bin
-
- ./logstash -f /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf
如果启动过程中报错如下:
报这个错是虚拟机内存不足,是因为这个Logstash要的内存太大了。这个插件在初始化的时候要了一个g的内存,但是虚拟机没有这么多的内存,所以把这个内存改小就行了。
(!!!但是,这样好像会导致 logstash 启动不了,还是想办法扩大内存吧 ,下面的方法仅供参考)
修改 /usr/local/logstash-7.6.2/config/jvm.options ,这里原来是 1g,修改成 256m:
首先在 ES 中创建索引 didiok-items,之后启动 logstash,然后再进行以下操作。
请求方式:GET
路径:http://localhost:9200/_template/logstash
- {
- "order": 0,
- "version": 1, # 修改1
- "index_patterns": ["*"], # 修改2
- "settings": {
- "index": {
- "refresh_interval": "5s"
- }
- },
- "mappings": {
- "_default_": {
- "dynamic_templates": [
- {
- "message_field": {
- "path_match": "message",
- "match_mapping_type": "string",
- "mapping": {
- "type": "text",
- "norms": false
- }
- }
- },
- {
- "string_fields": {
- "match": "*",
- "match_mapping_type": "string",
- "mapping": {
- "type": "text",
- "norms": false,
- "analyzer": "ik_max_word", # 修改3 加入中文分词器
- "fields": {
- "keyword": {
- "type": "keyword",
- "ignore_above": 256
- }
- }
- }
- }
- }
- ],
- "properties": {
- "@timestamp": {
- "type": "date"
- },
- "@version": {
- "type": "keyword"
- },
- "geoip": {
- "dynamic": true,
- "properties": {
- "ip": {
- "type": "ip"
- },
- "location": {
- "type": "geo_point"
- },
- "latitude": {
- "type": "half_float"
- },
- "longitude": {
- "type": "half_float"
- }
- }
- }
- }
- }
- },
- "aliases": {}
- }
之后将其保存为 /usr/local/logstash-7.6.2/sync/logstash-ik.json
- # 定义模板名称
- template_name => "myik"
- # 模板所在位置
- template => "/usr/local/logstash-7.6.2/sync/logstash-ik.json"
- # 重写模板
- template_overwrite => true
- # 默认为true,false关闭logstash自动管理模板功能,如果自定义模板,则设置为false
- manage_template => false
./logstash -f /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf
中文分词器没有设置成功?
试试下面的解决方案:
先通过postman请求 http://192.168.1.187:9200/_template/logstash,获取的json放入logstash-ik.json中,然后在 /usr/local/logstash-7.6.2/sync/logstash-db-sync.conf 文件中设置manage_template => true,然后启动logstash,启动后 ES 的 didiok-items 索引是不正确的。
删除索引,并重新创建索引 didiok-items。
然后 postman 调 http://192.168.1.187:9200/_template/myik 拿到的 myik 的 json 重新放入logstash-ik.json中,配置 logstash-db-sync.conf 改为 manage_template => false,
再次启动logstash就能在 didiok-items 的mapping中显示中文分词器了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。