首页 > 解决方案 > 可以从命令提示符运行 pyspark.cmd 但不能运行 pyspark

问题描述

我正在尝试为 Windows 设置 pyspark。我有 java、python、Hadoop 和 spark 所有我相信的设置和环境变量,我在其他地方得到了指示。事实上,我可以从命令提示符运行它:

pyspark.cmd

它会加载 pyspark 解释器。但是,我应该能够运行不合格的 pyspark(没有 .cmd),否则 python 导入将无法工作。我是否直接导航到 spark\bin 都没有关系,因为我已经将 spark\bin 添加到 PATH 中。

.cmd 列在我的 PATHEXT 变量中,所以我不明白为什么 pyspark 命令本身不起作用。

谢谢你的帮助。

标签: apache-sparkpyspark

解决方案


虽然我仍然不知道确切原因,但我认为问题出在我解压缩 spark tar 文件的方式上。在 spark\bin 文件夹中,如果没有包含 .cmd 扩展名,我将无法运行任何 .cmd 程序。但我基本上可以在任何其他文件夹中做到这一点。我重新解压缩,问题不再存在。


推荐阅读