Ambari上面的Spark1.3想要升级到2.0应该怎么做?

Ambari上面的Spark1.3想要升级到2.0应该怎么做?

现在用的是HDP2.3,HADOOP是2.7版本,Spark太老了才是1.3,想升级到2.0。

我已经下载了pre-build版本的spark2.0 但是怎么样才能让系统认到,集成到ambari里面呢?

阅读 6.3k
4 个回答

楼主你搞定了么? 现在的话应该是升级到最新版的Ambari就可以将2.0了,我没有试过。

新手上路,请多包涵

需要将ambari升级到最新版本,然后直接在ambari里进行spark的升级操作!

可以自己手动再安装个新版本,我就是这样的,与原来的1.5版本共存在添加一个2.1

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进