apache-spark - spark应用程序中的作业已完成,但我仍然看到状态为正在运行,为什么?
问题描述
我正在运行一个完成所有工作的 spark 应用程序,但这个工作纱线集群门户的状态仍然是 RUNNING(超过 30 分钟)。请让我知道为什么会这样。
显示我的作业已完成的 Spark UI
Spark 应用程序状态仍在运行
解决方案
我在 K8S 上运行 Spark 2.4.8 时遇到了同样的问题,我不明白为什么,但我通过手动停止上下文来解决它
spark.sparkContext.stop()
推荐阅读
- c++ - 循环和数组有问题
- discord-jda - 禁止命令不起作用 JDA 请帮助调试和一切
- python - 在 Tensorflow Keras 中跳过一个时期的权重
- tensorflow - 为什么 2070 Max-Q 训练神经网络的时间比 GTX 960m 长?
- javascript - Next.js v10 内部化 - getStaticProps 始终返回默认语言环境
- mysql - VARCHAR 列的索引大小
- javascript - 我无法将对象推入嵌套数组
- arm - 写入内存映射的 GPIO 寄存器不会写入任何内容
- python - 在保留内容的同时将两行合并为一行
- arrays - C - 在函数中传递数组并获取其大小