Spark Python 错误“FileNotFoundError: \[WinError 2\] 系统找不到指定的文件”

新手上路,请多包涵

我是 Spark 和 Python 的新手。我在 Windows 上安装了 python 3.5.1 和 Spark-1.6.0-bin-hadoop2.4。

当我从 python shell 执行 sc = SparkContext(“local”, “Simple App”) 时出现以下错误。

你能帮忙吗?

从 pyspark 导入 SparkConf、SparkContext

sc = SparkContext(“local”, “Simple App”)

追溯(最近一次通话):

文件“”,第 1 行,位于

sc = SparkContext("local", "Simple App")

文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第 112 行,在 init

SparkContext._ensure_initialized(self, gateway=gateway)

文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第 245 行,在 _ensure_initialized

 SparkContext._gateway = gateway or launch_gateway()

文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\java_gateway.py”,第 79 行,在 launch_gateway

 proc = Popen(command, stdin=PIPE, env=env)

文件“C:\Python35-32\lib\subprocess.py”,第 950 行,在 init restore_signals,start_new_session 中)

文件“C:\Python35-32\lib\subprocess.py”,第 1220 行,在 _execute_child 启动信息中)

FileNotFoundError: [WinError 2] 系统找不到指定的文件

原文由 sam 发布,翻译遵循 CC BY-SA 4.0 许可协议

阅读 1.4k
1 个回答

检查您的地址以确保其书写正确。就我而言,我的地址是:

“C:/Users/nekooeimehr/AppData/Local/Programs/Python/Python35-32/spark-1.6.2-bin-hadoop2.4”

而正确的地址是:

“C:/Users/nekooeimehr/AppData/Local/Programs/Python/Python35-32/spark-1.6.2-bin-hadoop2.4/spark-1.6.2-bin-hadoop2.4”

原文由 Iman Nekooeimehr 发布,翻译遵循 CC BY-SA 3.0 许可协议

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题