消费kafka数据再反查数据库,这种场景如何处理

发布于 2022-09-06 22:07:30 字数 191 浏览 22 评论 0

现在有一个场景,会订阅kafka的topic,实时获取消息,之后通过消息内容,反查数据库,获取到一些构建文档必须的字段; 之后消费构建得到的文档;

现在遇到一个比较大的问题就是消费能力跟不上;不知道这种场景下有什么好的解决方案。


这么多年了,最后放弃手撸的伪流处理代码,用了flink,map里翻查数据库,也够用了。不够就加并行度完事。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

对风讲故事 2022-09-13 22:07:30

消费端目前用的是多线程么?可以采用多实例部署,每个实例是一个进程,即一个consumer,每个consumer再使用线程池,异步消费

孤独难免 2022-09-13 22:07:30

多消费端,每个消费端用线程池异步处理

后知后觉 2022-09-13 22:07:30

本人用python消费kafka也遇到消费能力低下问题。我用的kafka-python, 然后是多进程处理。但是这方案每个进程内都是同步阻塞的。目前了解下来可以用aiokafka 替代实现。另外分享一点。

有两种方法能避免阻塞型调用:
. 在单独的线程中运行各个阻塞版本
. 把每个阻塞型的操作转换成非阻塞型的异步调用

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文