apache-spark - Apache Spark/scala:在退出前处理 yarn kill 来执行动作(清理资源,保存状态)
问题描述
我在 Spark/Hadoop 网格执行程序上运行了多个不相关的作业,这些作业由驱动程序节点的单个 spark-submit 启动。当我需要停止工作时,我想在驱动程序节点程序退出之前保存他们的 ID(或者,更一般地说:做一些事情,比如保存状态和/或清理资源,没关系)。
有没有办法处理纱线终止事件来执行这样的操作,就像你通过处理 SIGTERM 信号(和朋友)来执行一些最后的机会清理来类比 POSIX 信号一样。
我还没有找到处理纱线杀死的方法。有办法吗?是否有替代纱线杀死的方法可以满足这种需求?
谢谢。问候。
解决方案
推荐阅读
- azure-application-insights - 如何评估 Application Insights 请求“自己的”持续时间,而不考虑依赖关系的持续时间?
- python - 从命令行解析成python脚本
- c# - Unity RectTransform.sizeDelta 不会改变大小
- python - 异常后如何继续循环
- python - 生成集合和子集的唯一排列
- c++ - 如何在仅标头库中实现静态类成员?
- python-sphinx - 在文档字符串的某处嵌入植物图(使用 Sphinx 植物扩展)
- python - 如何将 python np.array 转换为 cv2 图像
- c# - C# 删除最后一个动态创建的文本框
- javascript - React js函数没有被调用