spark集群启动后,子机器上有worker进程,但在master机器上打开webui,worker却只有master是为什么?

hadoop和spark配置完成后,启动hadoop和spark没有报错,显示master和worker都正常启动,
图片描述
图片描述
使用jps查看master和worker机器,也有Worker进程和Master进程(由于是不同机器没有截worker机器的图)
图片描述

但在master上查看webui,里面的Workers只有master一台机器,哪里出了问题?
图片描述

阅读 7.2k
3 个回答
新手上路,请多包涵

需要关闭机器的防火墙。

过段时间就好了

新手上路,请多包涵

~/spark/conf/slaves 中配置的slave1 slave2 上面还有个localhost,直接删去localhost

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
宣传栏