filebeat如何每十条log传一条log
filebeat+logstash
现在为了减少数据量,每10条log文件取一条log,请问怎样配置能达到效果。
filebeat中貌似没找到相关的配置选项,我想的是能不能在filebeat中多传一个自增的字段,然后在logstash中filter x % 10 == 0的选项
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
不知你所谓的压力是在 logstash 解析数据,还是在存储在 ES 中数据量太大。
如果存储数据量大,可以上 ES 集群,或者写个脚本,定时清理 ES 中的数据(如只保留最近1天的日志数据)。
如果压力在 logstash 解析上,可以在 filebeat 和 logstash 中间一个 MQ 作为缓冲,不至于 filebeat 大量的数据一下子拥到 logstash,当然 Logstash 也可以做集群。
之前有翻译过一篇 ELK日志中心分布式架构的逐步演化,不知对你是否有帮助。
PS:filebeat 我的印象中好像没这么使用的,它读数据一般指定从头开始,或从文件末尾开始读取数据,接下来的每行数据都会被读取到。一般使用最多的是,将读取的多行数据并为一个log,如JAVA的错误日志。