赞
踩
Vic.xu
20200930
err.log
,sql.log
,common.log
等err.log
,sql.log
,common.log
收集到C机器的err.log
,sql.log
,common.log
; 一说分布式日志收集分析系统,网上都有一大推的关于ELK的文章。 不过咱的项目比较老了,只是最近才真正做了集群部署,所以才会涉及到分布式的日志收集。
不过,项目中暂时也不会做日志分析之类的东西。所以就准备先弄一个
filebeat
收集日志到logstash
,然后通过logstash
定向输出到文件即可。加上之前因为开发环境和测试环境的隔离,所以写了个实时页面查看日志的小项目,也是勉强够用了。
版本:(因为之前使用过
ElasticSearch
的版本是7.7.1)
Filebeat
7.7.1
Logstash
7.7.1
Logstash
,而是额外引入了Filebeat
logstash
是jvm
跑的,资源消耗比较大,filebeat
更轻量,占用资源更少filebeat
采集日志,然后发送到消息队列,redis
,kafaka
。然后logstash
去获取,利用filter
功能过滤分析,然后存储到elasticsearch
中Filebeat
+ Logstash
在各个需要收集日志的机器上FileBeat
, 配置输出到远程的Logstash
中
Es
/Logstash
/Kafka
/Redis
/File
/Console
,方便后续扩展在接收日志文件的机器上安装Logstash
,收集各个Filebeat
发送来到日志,输出到文件
Logstash
的input方式有很多,包括Filebeat
,kafka
等: https://www.elastic.co/guide/en/logstash/current/input-plugins.html
Logstash
的output方式有很多,非常方便后续扩展,参见官网
Filebeat
官网下载windows版本
修改filebeat.yml
,具体参考官网
filebeat.inputs: - type: log enabled: true fields: name: vic_first paths: # - /var/log/*.log - E:/space/idea/blog/logback/*.log output.file: path: d:/filebeat filename: filebeat_vic.log codec.format: string: '%{[fields][name]}%{[@timestamp]} %{[message]}' rotate_every_kb: 10240 # 是否开启多行合并 multiline.type: pattern #multiline.pattern: '^\[' multiline.pattern: '^vic-blog' multiline.negate: false multiline.match: after #============================= Filebeat modules =============================== filebeat.config.modules: path: ${path.config}/modules.d/*.yml reload.enabled: false processors: - add_host_metadata: ~ - add_cloud_metadata: ~ - add_docker_metadata: ~ - add_kubernetes_metadata: ~
启动Filebeat
,然后测试写入日志,会被写入到输出位置
.\filebeat.exe -e -c filebeat.yml
其他
输出到es
:
output.elasticsearch:
# Array of hosts to connect to.
hosts: ["localhost:9200"]
# Protocol - either `http` (default) or `https`.
#protocol: "https"
# Authentication credentials - either API key or username/password.
#api_key: "id:api_key"
#username: "elastic"
#password: "changeme"
输出到logstash
output.logstash:
# The Logstash hosts
hosts: [“localhost:5044”]
```
Logstash
官网下载zip解压,
cofig下复制logstash.conf,然后配置成控制台输入输出:
input { beats { port => 5044 } } filter { ruby { code => " path = event.get('log')['file']['path'] puts format('path = %<path>s', path: path) if (!path.nil?) && (!path.empty?) event.set('filename', path.split('/')[-1]) end " } } output { file { # path => "/data/share/logs/output/logstash/%{+yyyy-MM-dd}/%{+HH}-vic.log" path => "/data/share/logs/output/logstash/%{+yyyy-MM-dd}/%{filename}" codec => line { format => "%{filename} %{[fields][name]}: %{message}"} } stdout { codec => rubydebug } } ~
启动Logstash
bin\logstash -f config\logstash.conf
在logstash中获取Filebeat中的日志原文件名,然后输出到同名文件:通过filter实现
如下,获取输入的日志文件的文件名filename,通过
%{filename}
获取
filter {
ruby {
code => "
path = event.get('log')['file']['path']
puts format('path = %<path>s', path: path)
if (!path.nil?) && (!path.empty?)
event.set('filename', path.split('/')[-1])
end
"
}
}
filebeat携带额外的信息到,标志来自哪台机器,通过fields携带(如下,携带的key是name,value是server1)
filebeat.inputs:
- type: log
enabled: true
fields:
name: server1
logstash获取filebeat携带的额外的信息
%{[fields][name]}
filebeat 不发送最后一行
Filebeat使用换行符来检测事件的结束。 如果将行逐渐添加到正在采集的文件中,则在最后一行之后需要换行符,否则Filebeat将不会读取文件的最后一行。
linux
下的启动脚本和最终配置文件
linux
下的安装和window下没什么区别,logstash
需要确保安装了jdk1.8
+;启动也是一样的, 只是本人比较懒, 所以写了两个启动脚本
start.sh
;运行时带参数的话则输出日志到catalina.out
,不带参数则不输出日志
linux
下的filebeat
的启动脚本#!/bin/bash
log="/dev/null"
# if input paramter is not null ,then output log to catalina.out. else to /dev/null
if [ $1 != '' ];then
log="catalina.out"
fi
nohup ./filebeat -e -c filebeat.yml >$log 2>&1 &
echo "start filebeat.......... ----> $log"
linux
下的logstash
的启动脚本#!/bin/bash
log="/dev/null"
# if input paramter is not null ,then output log to catalina.out. else to /dev/null
if [ $1 != '' ];then
log="catalina.out"
fi
nohup bin/./logstash -f config/logstash.conf >$log 2>&1 &
echo "start logstash.......... ----> $log"
filebeat.yaml
最终配置文件(见注释)# 输入日志 filebeat.inputs: - type: log enabled: true # 携带的额外的数据,标识来自哪个机器 fields: name: wsl-ubuntu # 日志的所在位置 paths: - /data/share/logs/input/*.log - /data/share/logs/input2/*.log #=========================== 是否开启多行合并================================ multiline.type: pattern #多行合并的正则,以[ 开头 multiline.pattern: '^\[' # 是否不合并多行合并: 负负得正 表示开启 multiline.negate: false multiline.match: after #==========================输出日志到logstash============================== output.logstash: # The Logstash hosts hosts: ["localhost:5044"]
logstash.conf
最终配置文件(见注释)#======从filebeat获取日志============================== input { beats { port => 5044 } } #=====解析出来源日志的文件名=================================== filter { ruby { code => " path = event.get('log')['file']['path'] puts format('path = %<path>s', path: path) if (!path.nil?) && (!path.empty?) event.set('filename', path.split('/')[-1]) end " } } #======输出日志============================== output { # 输出日志到文件,在日志的开头打印filebeat中携带的name属性,标识来自哪个文件 file { path => "/data/share/logs/output/logstash/%{+yyyy-MM-dd}/%{filename}" codec => line { format => "%{[fields][name]}: %{message}"} } # 输出日志到控制台 可删除掉 stdout { codec => rubydebug } }
文章来源:临窗旋墨的博客,转载注明出处。
时间: 20200930
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。