filebeat结合logstash推送到不同的源存在过滤问题
版本
logstash-7.6.2-1.noarch
filebeat-7.6.2-1.x86_64
问题描述
基于output的if判断过滤失败,passageway值为default时数据也会随机推送到kafka和ES对应的数据源中
经过测试 当数据量较大且多个filebeat同时推送会出现该情况,logstash是否存在批量处理过滤的异常?
logstash代码如下:
input {
beats {
host => ""
port => 5044
}
}
output {
if [fields][passageway] == "kafka" {
kafka {
bootstrap_servers => ""
codec => plain {
format => "%{[messageData]}"
}
topic_id => "%{[fields][kafka_topic]}"
}
} else if [fields][passageway] == "es" {
elasticsearch {
hosts => ""
action => "index"
index => "%{[fields][type]}"
}
}
}
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论