我有一个在亚马逊 ec2 上运行的 spark master。我尝试使用 pyspark 从另一个 ec2 实例连接到它,如下所示:
spark = SparkSession.builder.appName("MyApp") \
.master("spark_url_as_obtained_in_web_ui") \
.getOrCreate()
以下是错误:
要调整日志记录级别,请使用 sc.setLogLevel(newLevel)。对于 SparkR,使用 setLogLevel(newLevel)。
2018-04-04 20:03:04 WARN Utils:66 - 服务“sparkDriver”无法绑定到随机空闲端口。您可以查看是否配置了合适的绑定地址。
…………
java.net.BindException:无法分配请求的地址:重试 16 次后服务“sparkDriver”失败(在随机空闲端口上)!考虑将服务“sparkDriver”的适当绑定地址(例如 SparkDriver 的 spark.driver.bindAddress)显式设置为正确的绑定地址。
我尝试了此处描述的所有解决方案,但无济于事:
可能出了什么问题??
原文由 Adarsh 发布,翻译遵循 CC BY-SA 4.0 许可协议
将
spark.driver.bindAddress
设置为您的本地 IP,例如127.0.0.1
。