logstash写数据到elasticsearch 出现数据丢失怎么解决
我日志里有600多条数据 但是写到elasticsearch里只有300多条
这是什么原因造成的 有大神知道嘛?
这个是我的配置
input {
file {
path => ["/usr/local/20170730.log"]
type => "log_test_events"
tags => ["log_tes_events"]
start_position => "beginning"
sincedb_path => "/data/logstash/sincedb/test.sincedb"
codec => "json"
close_older => "86400"
#1 day
ignore_older => "86400"
}
beats{port => 5044}
}
filter {
urldecode {
all_fields => true
}
}
output{
elasticsearch {
hosts => "localhost:9200"
index => "logstash_%{event_date}"
}
stdout { codec => json }
}
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
因为读日志的时候es的模版根据数据的格式自动创建数据类型 比如字段a的值为int和字符串 他创建的索引第一个读取到是数字就是int类型 索引
修改配置 做映射
output {
stat_day.json模版格式
"order" : 1,
"template" : "test1",
"mappings" : {
}
}