依赖于kafka的Flink任务是否可以通过复制job来强行达到动态增加资源的目的?

新手上路,请多包涵

由于目前版本似乎flink不支持dynamic scaling,需要增加资源分配的话必须先停止正在运行的job。目前我有一个flink job是用于消费kafka topic中的数据然后sink到另一个topic中去。所以想请问一下如果我们直接复制新的flink job(消费者的group_id保持相同)能否起到原来想要的动态增加资源的目的?如果这样操作能否很好的使用yarn或者kubernetes来动态调度资源?

阅读 2.8k
1 个回答
新手上路,请多包涵

感觉不太对。
原来Key为 key1 的消息会被原来的 flink job 消费,并产生了 State ;现在 key="key1" 的消息都会发送给新的 flink job 中,那么在旧 flink job 中的 State 怎么办?同时新 flink job 里的 State 也不是在旧 flink job 中的 State 基础上计算出来的。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
宣传栏