首页 > 解决方案 > PySpark,Win10 - 系统找不到指定的路径

问题描述

我以前通过 pip 安装了 PySpark 作为 Python 包,我最近用干净的 Python 版本卸载了它并下载了独立版本。

在我的用户变量中,我创建了一个名为 SPARK_HOME 的路径

值为:C:\spark-2.3.2-bin-hadoop2.7\bin

在路径下的系统变量中,我做了一个条目:C:\spark-2.3.2-bin-hadoop2.7\bin

当我运行 pyspark

我也不能运行 spark-shell。有任何想法吗?

标签: pyspark

解决方案


SPARK_HOME应该没有bin文件夹。因此,

设置SPARK_HOMEC:\spark-2.3.2-bin-hadoop2.7\


推荐阅读