首页 > 解决方案 > 有什么方法可以确定 SparkSQL 应用程序执行的最后阶段吗?

问题描述

我创建了生成日志的自定义 UDF。这些日志可以通过调用由内部层公开的另一个 API 来刷新。但是我想在 UDF 的执行结束后调用这个 API。是否有任何方法可以确定特定 UDF 的执行是否已完成以调用 API 以刷新日志和清理。

例如,当我们为 Hive UDF 扩展 Hive 的 GenericUDF 类时,在 UDF 的生命周期中有一个可用的关闭函数,该函数将在 UDF 执行后调用。

SparkSQL UDF 中是否可以使用类似的方法?

标签: scalaapache-sparkpysparkhiveapache-spark-sql

解决方案


推荐阅读