使用sparkContext
而不是sparkStream
上下文
在获取数据源,处理数据,打印或输出一系列操作后
sc.stop()
结束上下文
对于这样的一个job
,使用spark-submit
提交到集群后
它是只运行一次的还是会运行完了驻留在任务集群中?
使用sparkContext
而不是sparkStream
上下文
在获取数据源,处理数据,打印或输出一系列操作后
sc.stop()
结束上下文
对于这样的一个job
,使用spark-submit
提交到集群后
它是只运行一次的还是会运行完了驻留在任务集群中?
8 回答2.6k 阅读
2 回答5.1k 阅读✓ 已解决
5 回答1k 阅读
3 回答2.2k 阅读
4 回答719 阅读✓ 已解决
1 回答796 阅读✓ 已解决
1 回答993 阅读✓ 已解决