apache-spark - 停止在 Kubernetes 集群上运行的火花作业的最优雅/正确的方法是什么?
问题描述
我是 apache spark 的新手,我正在尝试在我的 Kubernetes 集群上使用 spark-submit 运行 spark 作业。我想知道一旦产生了驱动程序和执行程序吊舱,是否有正确的方法来停止火花作业?删除 pod 本身就足够了吗?
谢谢!
解决方案
目前,停止在 Kuberentes 上运行的 Spark 作业的唯一方法是删除 Driver Pod(除非您有一个控制 Spark 上下文的应用程序能够对其进行操作)。由于所有其他与作业相关的资源都通过诸如 called ownerReference
s 链接到 Spark Driver Pod,因此它们将被 Kubernetes 自动删除。
推荐阅读
- html - 如何将链接添加到 Gmail 的主题区域
- php - file_get_contents 不在服务器上工作,但在 localhost 和 allow_url_fopen 上工作
- c# - 通过按钮统一打开 PDF 文件时出错
- asp.net-mvc - Dotnet 核心——如何转换 Queryable
在下拉列表中使用 SelectList? - python - 将 ipywidgets.widgets.widget_output.Output 转换为列表
- html - html5 链接加载当前页面:语法问题?
- ios - 有没有办法在模拟器内自动登录 Apple ID 帐户以供 iCloud 使用?
- javascript - sequelize query findAll using multiple constraints in where arg
- celery - 如何在不将worker_enable_remote_control设置为True的情况下暂停/恢复celery worker消费新任务
- mysql - 错误代码 1452。无法添加或更新子行:外键约束失败,