赞
踩
|
https://hacpai.com/article/1512990272091
我简单介绍主流程,详情见上链接
1.开启数据预处理,node.ingest: true
2.向es提交pipline,并命名为my-pipeline-id
PUT _ingest/pipeline/my-pipeline-id
{
"description" : "describe pipeline",
"processors" : [
{
"set" : {
"field": "foo",
"value": "bar"
}
}
]
}
3.以上pipline的作用
若产生新的数据,会新增一个字段为foo:bar
4.curl的pipline即时测试
POST _ingest/pipeline/_simulate
是一个测试接口,提供pipline的规则和测试数据,返回结果数据
是pipline中的正则匹配模式,以上规则的复杂版
|
|
测试结果pipline配置后,并没生效。
1.filebeat 导入csv的资料很少,主要为pipline方式,测试几个失败。
2.J和数据组并没有filebaeat 导入csv的成功案例。J不太建议使用
结论:filebeat导csv并不方便,建议采用logstash。
一般日志收集可使用logstash,每行的信息会存到message中
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。