LogStash(Elk):用主机名(基于文件)丰富IP。 - (无直接连接w/ dns/ ad)

发布于 2025-02-08 00:02:41 字数 230 浏览 2 评论 0原文

试图弄清楚如何丰富要摄入的数据(网络数据)zeek/suricata。我想显示主机名IP,或者更优选地添加基于IP地址的主机名添加另一个字段。

具有IP-&GT的文件;如果需要,HostNames(CSV)当前可能是其他格式。无法使用DNS或Active Directory或任何其他连接的手段将IP转到主机名。

我知道您可以在Splunk中进行查找表,但不确定如何在麋鹿堆栈中完成相同的操作以查看Kibana的结果。

Trying to figure out how to enrich the data being ingested (Network Data) Zeek/Suricata. I would like to either show Hostname vice IP, or more preferably add another field for hostname based off the IP address.

Have a file with IP -> Hostnames (CSV) currently could be anything other format if required. Unable to get IP to Hostname with DNS or Active Directory or any other connected means.

I know in Splunk you could do lookup tables, but unsure how to accomplish the same in the ELK stack to view the results in Kibana.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

伤痕我心 2025-02-15 00:02:41

您可以在logstash中使用过滤器,它需要一个两列CSV文件(或YML或JSON)。您可以尝试使用

translate {
    source => "[fieldWithIP]"
    dictionary_path => "/path/to/mapping.csv"
    target => "[fieldForHostname]"
}

此功能将添加一个新字段,称为[fieldforhostname],如果在映射的第1列中找到了[fieldwithip]的值

You could do this in logstash using a translate filter, which requires a two-column CSV file (or YML, or JSON). You could try

translate {
    source => "[fieldWithIP]"
    dictionary_path => "/path/to/mapping.csv"
    target => "[fieldForHostname]"
}

this would add a new field called [fieldForHostname] if the value of [fieldWithIP] is found in column 1 of the mapping.csv

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文