首页 > 解决方案 > 是否可以在程序完成后告诉 Spark 删除工作目录?

问题描述

我的程序包含相当多的 jar 文件,这些文件被复制到应用程序的每个执行程序的工作目录中。这些目录位于 $SPARK_HOME/work。这些目录包含程序的库和日志(stdout 和 stderr)。请注意,我在这里不是在谈论 Spark 的 tmp 目录,因为它们是另外一回事。

由于这些目录可能会变得很大,我想在我的程序完成后立即删除这些目录。一种方法显然是自己编写一些脚本来做到这一点,但有没有一种方法可以命令 Spark 为我做这件事,即在程序完成后立即删除它们?

标签: apache-spark

解决方案


推荐阅读