首页 > 解决方案 > 为什么 spark-shell 会以“此时出乎意料”而失败?- 更改 JAVA_HOME 环境变量不起作用

问题描述

尝试运行PySpark时遇到一个小问题。启动命令时出现以下错误 pyspark —master local[2]:

\PySpark\spark-2.3.1-bin-hadoop2.7\bin.. was unexpected at this time.

命令行运行pyspark

我已经在没有空格的文件夹中重新安装了 Java,将JAVA_HOME变量设置为C:\Java\jdk1.8.0_181并将路径添加到%JAVA_HOME%\bin我的 Windows 路径之上,但我仍然有同样的错误。

有人对这个问题有任何线索吗?

将不胜感激!

提前致谢。

标签: apache-sparkpysparkenvironment-variables

解决方案


推荐阅读