依赖于kafka的Flink任务是否可以通过复制job来强行达到动态增加资源的目的?
由于目前版本似乎flink不支持dynamic scaling,需要增加资源分配的话必须先停止正在运行的job。目前我有一个flink job是用于消费kafka topic中的数据然后sink到另一个topic中去。所以想请问一下如果我们直接复制新的flink job(消费者的group_id保持相同)能否起到原来想要的动态增加资源的目的?如果这样操作能否很好的使用yarn或者kubernetes来动态调度资源?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
感觉不太对。
原来Key为
key1
的消息会被原来的flink job
消费,并产生了State
;现在key="key1"
的消息都会发送给新的flink job
中,那么在旧flink job
中的State
怎么办?同时新flink job
里的State
也不是在旧flink job
中的State
基础上计算出来的。