首页 > 解决方案 > `import pyspark` 适用于 Jupyter,但不适用于 python shell/脚本

问题描述

我正在尝试将pyspark代码从jupyter笔记本迁移到 python 脚本。但是,当我尝试使用

from pyspark.sql import SparkSession

我有一个错误No module named 'pyspark'

标签: pythonpysparkjupyter-notebook

解决方案


首先,通过以下方式确保您的 python 解释器对于 jupyter 和 shell 是相同的:

import sys
print(sys.executable)

如果是这种情况,您的 jupyter 内核还会在启动时将 pyspark 添加到 python 路径。正如@Sraw 指出的那样,您可以通过pyspark.__file__在您的工作环境中找到 pyspark。

这是一个简短的 bash 脚本,介绍如何在 Ubuntu 16.10 下将 pyspark 手动添加到现有的 jupyter 内核:链接


推荐阅读