由于目前版本似乎flink不支持dynamic scaling,需要增加资源分配的话必须先停止正在运行的job。目前我有一个flink job是用于消费kafka topic中的数据然后sink到另一个topic中去。所以想请问一下如果我们直接复制新的flink job(消费者的group_id保持相同)能否起到原来想要的动态增加资源的目的?如果这样操作能否很好的使用yarn或者kubernetes来动态调度资源?
由于目前版本似乎flink不支持dynamic scaling,需要增加资源分配的话必须先停止正在运行的job。目前我有一个flink job是用于消费kafka topic中的数据然后sink到另一个topic中去。所以想请问一下如果我们直接复制新的flink job(消费者的group_id保持相同)能否起到原来想要的动态增加资源的目的?如果这样操作能否很好的使用yarn或者kubernetes来动态调度资源?
感觉不太对。
原来Key为
key1
的消息会被原来的flink job
消费,并产生了State
;现在key="key1"
的消息都会发送给新的flink job
中,那么在旧flink job
中的State
怎么办?同时新flink job
里的State
也不是在旧flink job
中的State
基础上计算出来的。