使用sparkContext
而不是sparkStream
上下文
在获取数据源,处理数据,打印或输出一系列操作后
sc.stop()
结束上下文
对于这样的一个job
,使用spark-submit
提交到集群后
它是只运行一次的还是会运行完了驻留在任务集群中?
使用sparkContext
而不是sparkStream
上下文
在获取数据源,处理数据,打印或输出一系列操作后
sc.stop()
结束上下文
对于这样的一个job
,使用spark-submit
提交到集群后
它是只运行一次的还是会运行完了驻留在任务集群中?
15 回答8.4k 阅读
3 回答3.4k 阅读✓ 已解决
4 回答4.4k 阅读✓ 已解决
4 回答4k 阅读
1 回答3k 阅读✓ 已解决
3 回答2.1k 阅读✓ 已解决
2 回答1.5k 阅读✓ 已解决