python - 使用 pyspark 创建 sparksession 后是否需要停止 spark?
问题描述
所以我有这个:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("NewSpark").getOrCreate()
我听说你完成后需要停止火花,但在我的情况下这是必要的,因为它只是一个 python 程序?
解决方案
spark
如果对象被破坏或脚本退出,会话将关闭。所以你不应该担心“悬空连接”或类似的事情。
但是,如果您想要在脚本末尾执行一堆非 Spark 工作,那么尽早停止会话以避免保持该连接处于打开状态可能仍然是一个好主意。
请注意,您可以将SparkSession
对象用作上下文管理器以在范围结束时自动停止它:
with SparkSession.builder.appName("NewSpark").getOrCreate() as spark:
# do stuff
# ...
# spark.stop() gets called automatically here
推荐阅读
- karate - 如何在不使用属性文件的情况下使用一个场景输出到另一个场景
- mysql - 如何在没有插入选项的情况下将新数据插入到我的 SQL 查询中?
- android - 设备中的系统 UI 崩溃,当我安装由 Android Studio 创建的应用程序时
- canvas - GWT Canvas 绘制填充多边形中的错误
- android - 如何从 ArrayList 添加价格
- php - nginx 将请求传递给不正确的 php-fpm 池
- java - 有没有办法从java中的单个方法返回一个Double AND一个String?
- delphi - 有没有办法只执行来自放置在共享驱动器上的大 exe 的单元中的代码?
- android - 如何将 Firebase 消息传递仅设置为我的应用程序的一种风格?
- angular - Angular 6:从兄弟姐妹路由到兄弟姐妹的孩子