apache-spark - 可以从命令提示符运行 pyspark.cmd 但不能运行 pyspark
问题描述
我正在尝试为 Windows 设置 pyspark。我有 java、python、Hadoop 和 spark 所有我相信的设置和环境变量,我在其他地方得到了指示。事实上,我可以从命令提示符运行它:
pyspark.cmd
它会加载 pyspark 解释器。但是,我应该能够运行不合格的 pyspark(没有 .cmd),否则 python 导入将无法工作。我是否直接导航到 spark\bin 都没有关系,因为我已经将 spark\bin 添加到 PATH 中。
.cmd 列在我的 PATHEXT 变量中,所以我不明白为什么 pyspark 命令本身不起作用。
谢谢你的帮助。
解决方案
虽然我仍然不知道确切原因,但我认为问题出在我解压缩 spark tar 文件的方式上。在 spark\bin 文件夹中,如果没有包含 .cmd 扩展名,我将无法运行任何 .cmd 程序。但我基本上可以在任何其他文件夹中做到这一点。我重新解压缩,问题不再存在。
推荐阅读
- c# - C#将文件保存在数组中
- python - Flask_login,尝试在当前用户登录和动态页面上匹配时登录失败
- android - Android 是否允许在同一应用程序/设备中购买具有不同配置文件的相同订阅?使用 ObfuscatedAccountId 和 ObfuscatedProfileId
- python - 从 txt 文件中跳过一行
- typescript - IntelliJ - 有没有办法防止自动格式化程序折叠数组中项目之间的空格?
- c++ - 无法使用指针添加数组元素
- python - 使用条件语句 Python 从一张表到另一张表的数据映射
- homebrew - 如何处理冲泡配方冲突?
- python - 在 Flask 中使用 URI 发布图片然后获取内容
- android-studio - 用于 KVM 的 Intel I7-3770 VT-X 使用 Android Studio 模拟 Android