apache-spark - 为什么 spark-shell 会以“此时出乎意料”而失败?- 更改 JAVA_HOME 环境变量不起作用
问题描述
尝试运行PySpark时遇到一个小问题。启动命令时出现以下错误
pyspark —master local[2]:
\PySpark\spark-2.3.1-bin-hadoop2.7\bin.. was unexpected at this time.
我已经在没有空格的文件夹中重新安装了 Java,将JAVA_HOME
变量设置为C:\Java\jdk1.8.0_181
并将路径添加到%JAVA_HOME%\bin
我的 Windows 路径之上,但我仍然有同样的错误。
有人对这个问题有任何线索吗?
将不胜感激!
提前致谢。
解决方案
推荐阅读
- javascript - 带有多个选择器的 jQuery 后代选择器
- arrays - 数组迭代的返回值
- kotlin - 在 Kotlin 中访问枚举条目的成员
- .htaccess - 子域的 htaccess 不再使用
- facebook - 嵌入式 Facebook 群组提要未显示个人数据
- reactjs - 如何将graphQL查询结果转换为数据数组
- reactjs - 如何为使用基于路径的导入的模块提供类型定义?
- uwp - UWP Win2D以指定宽度绘制文本?可能吗?
- python - 使用 python 的 SimpleHTTPServer 运行一个简单的服务器
- c# - 将请求类类型传递给请求的类构造函数