pyspark - PySpark,Win10 - 系统找不到指定的路径
问题描述
我以前通过 pip 安装了 PySpark 作为 Python 包,我最近用干净的 Python 版本卸载了它并下载了独立版本。
在我的用户变量中,我创建了一个名为 SPARK_HOME 的路径
值为:C:\spark-2.3.2-bin-hadoop2.7\bin
在路径下的系统变量中,我做了一个条目:C:\spark-2.3.2-bin-hadoop2.7\bin
我也不能运行 spark-shell。有任何想法吗?
解决方案
SPARK_HOME应该没有bin
文件夹。因此,
设置SPARK_HOME
为C:\spark-2.3.2-bin-hadoop2.7\
推荐阅读
- python - 在 Python 中索引 HDF5 数据集时出现“无法从 NULL 指针创建 cython.array”错误
- amazon-web-services - 在 AWS Amplify 中更改我的 GraphQL 架构时如何防止丢失生产数据?
- google-bigquery - 从嵌套对象数组中选择行并删除具有某些匹配列的行
- java - Homebrew 在 Macbook pro m1 上找不到 openjdk
- javascript - .push() 在 throw 下不起作用,使用 async await 方法在 javascript 中循环获取数据
- python - 是否有任何 OpenCV 或 Tensorflow 方法可以将两个非常模糊的图像分类为“白色”或“黑色”?
- c++ - 启用 c++20 编译时 clang-tidy 发出警告
- python - 如何使用 alpha_composite 合成图像,但设置蒙版的不透明度?
- python - 熊猫数据框中 2 列的值计数
- javascript - 您将如何创建一个从列表中添加随机数以达到某个值的函数?