filebeat结合logstash推送到不同的源存在过滤问题

发布于 2022-09-13 00:48:59 字数 784 浏览 22 评论 0

版本

logstash-7.6.2-1.noarch
filebeat-7.6.2-1.x86_64

问题描述

基于output的if判断过滤失败,passageway值为default时数据也会随机推送到kafka和ES对应的数据源中

经过测试 当数据量较大且多个filebeat同时推送会出现该情况,logstash是否存在批量处理过滤的异常?

logstash代码如下:

input {
    beats {
        host => ""
        port => 5044
    }
}
output {
    if [fields][passageway] == "kafka" {
        kafka {
            bootstrap_servers => ""
            codec => plain {
                format => "%{[messageData]}"
            }
            topic_id => "%{[fields][kafka_topic]}"
        }
    } else if [fields][passageway] == "es" {
        elasticsearch {
            hosts => ""
            action => "index"
            index => "%{[fields][type]}"
        }
    }
}

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文