python - 在 Python 解释器中停止 SparkContext
问题描述
我在 test_spark.py 文件中有一个函数 runTests(sc)
我在 test_spark 所在的目录中打开一个 python 解释器并运行以下命令。
from pyspark import SparkContext
sc = SparkContext()
from test_spark import runTests
runTests(sc)
runTests 方法中的代码正在按我的意图执行,但是我无法停止 SparkContext sc。我尝试在 runTests() 函数的最后编写 sc.stop() 。
我尝试传入sc.stop()
python解释器。但它并没有停止 SparkContext。
下面是我正在运行检查的代码
sc
<SparkContext master=local[*] appName=pyspark-shell>
sc._jsc.sc().isStopped()
False
sc.stop()
sc._jsc.sc().isStopped()
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
AttributeError: 'NoneType' object has no attribute 'sc'
sc
<SparkContext master=local[*] appName=pyspark-shell>
我只能通过退出 python 解释器来关闭上下文。问题在于,对于我的代码中的每一个小测试,我都必须打开一个解释器并再次运行导入命令。
解决方案
推荐阅读
- python - 使用来自另一个文件的导入时并发.futures 错误?
- ios - SwiftUI TabView 图像大小与 LaunchScreen.storyboard UITabBar 不匹配,无法修复
- javascript - react-router-dom 不工作只是渲染“/”
- python - 在python中使用for循环创建多行字符串
- php - 使用 PDO 获取 SQL 结果中记录的位置
- python - 如何使用 numy linalg lstsq 来拟合具有相同斜率但截距不同的两个数据集?
- ag-grid-react - 无法增加 Ag-grid 行高
- shopify - 如何使用三元或除非排除供应商类型?
- xml - 使用 PLSQL 将 XML 解析为数据库表
- python - 用于有效查找大型集合的小交集的数据结构