依赖于kafka的Flink任务是否可以通过复制job来强行达到动态增加资源的目的?

发布于 2022-09-11 16:38:17 字数 216 浏览 12 评论 0

由于目前版本似乎flink不支持dynamic scaling,需要增加资源分配的话必须先停止正在运行的job。目前我有一个flink job是用于消费kafka topic中的数据然后sink到另一个topic中去。所以想请问一下如果我们直接复制新的flink job(消费者的group_id保持相同)能否起到原来想要的动态增加资源的目的?如果这样操作能否很好的使用yarn或者kubernetes来动态调度资源?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

情话难免假 2022-09-18 16:38:17

感觉不太对。
原来Key为 key1 的消息会被原来的 flink job 消费,并产生了 State ;现在 key="key1" 的消息都会发送给新的 flink job 中,那么在旧 flink job 中的 State 怎么办?同时新 flink job 里的 State 也不是在旧 flink job 中的 State 基础上计算出来的。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文