pyspark - PySpark 返回错误二路径:系统找不到指定的路径。该系统找不到指定的路径
问题描述
我需要帮助才能上班
PySpark 出现运行错误
D:\spark-3.1.2-bin-hadoop3.2\bin>pyspark
The system cannot find the path specified.
The system cannot find the path specified.
JAVA_HOME = C:\Program Files\Java\jdk1.8.0_291
PATH = C:\Program Files\Java\jdk1.8.0_291\bin
SPARK_HOME = D:\spark-3.1.2-bin-hadoop3.2
PATH = D:\spark-3.1.2-bin-hadoop3.2\bin
已尝试安装和卸载 Apache Hadoop 并尝试了不同的方法,但似乎无法正常工作
如果有人可以提供帮助,将不胜感激。
解决方案
推荐阅读
- excel - 是否有查找“结尾”的功能
- keras - 从 keras 中另一个模型的输出初始化模型的权重以进行迁移学习
- delphi - 如何在 Case 命令中创建多个条件?
- python - Pandas & Plotly:如何访问悬停文本中不用于绘制点的数据列?
- sql - 检索第二个日期值
- javascript - 如何通过单击按钮以特定 div id 显示数据数组?
- mulesoft - 如何在 MuleSoft 中获取 SalesForce 的父表“记录 ID”(自动生成的 ID)
- git - 在离线计算机上镜像存储库
- python - 使用任意长度索引在嵌套列表中设置元素
- python - 递归遍历带有列表的嵌套字典,并替换匹配的值