kafka在日志监控平台使用

发布于 2021-12-02 02:44:18 字数 640 浏览 696 评论 8

@卢禹 你好,想跟你请教个问题:我现在有个需求,用logstash抓取日志到kafka以后,同时做实时日志监控,和日志静态分析,实时日志监控用ELK实现,日志静态分析用HADOOP,现在有两个问题:

一:kafka消息到hdfs我知道有的方法有kafka-connector-hdfs和camus,这两个是否可以完成我的kafka到hadoop实现静态分析的需求,这两个方法是属于消费消息,还是直接将数据导入到hdfs,如果是数据直接导入到hdfs,那我不是不能再用ELK拉取日志了么。

二:因为日志要到ELK和HADOOP两个不同的地方,不知道topic如何设计。

zookeeper+kafka 3+3集群。ELK(elasticsearch+logstash+kibana)。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(8

白龙吟 2021-12-04 19:15:49

想问下,kafka-connector-hdfs和camus该选择哪一个来使用,这两个有什么区别么,一直没有找到合适的例子

岁月打碎记忆 2021-12-04 19:02:26

回复
camus官方已经不推荐使用,是一个过期的项目,未来可能会被移除,官方推荐使用这个:http://docs.confluent.io/3.0.0/connect/connect-hdfs/docs/hdfs_connector.html#quickstart

把昨日还给我 2021-12-04 18:45:40

@Small雀 好了,吗

百思不得你姐 2021-12-04 18:17:26

一、1、都可以导入到hadoop,但分析和他们无关,要分析可以写mapreduce或者直接用hive。2、都属于消费消息,3、上面的回答很对,kafka是可以很多消费端的 互相不影响。

二、既然消费端互相不影响,topic不需要特别的设计。

伪装你 2021-12-04 16:24:49

我知道可以由不同的消费者消费,主要看camus说明说是传输data的而不是消息,所以产生了疑问

等你爱我 2021-12-04 10:39:20

回复
不要被他疑惑了,他所谓传输data,其实就是封装了消费msg到hdfs的过程。

眼眸 2021-12-04 03:03:02

回复
好的,谢谢(*^__^*) 嘻嘻

柒夜笙歌凉 2021-12-02 12:25:51

少年 你要明白 kafka作为生产者消费者模型 可以同时有多个消费者,他们之间互不影响。

kafka的topic是针对数据业务设计的和他消费到哪没有关系,不管你有多少consumer 都是消费一个topic啊

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文