2 个回答

Spark和Hadoop是完全两种集群。Spark是分布式计算框架,Hadoop是分布式计算/存储/调度框架。Spark可以无缝访问存在HDFS上的数据。
所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是hdfs://namenode:port/能访问就行。
当然Spark作业提交到YARN那是另外一回事了。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进