apache-spark - 我怎样才能杀死卡住的工作而不杀死 Spark 中的应用程序?
解决方案
您突出显示的终止按钮将终止当前作业。然而:
- 如果这是一个交互式 Spark 会话(即运行 Jupyter notebook 或
spark-shell
orpyspark
),那么应用程序将仍然存在。 - 如果这是一个非交互式 Spark 会话(即
spark-submit
),那么应用程序将与作业一起被终止,因为应用程序状态被视为失败。
推荐阅读
- visual-studio - 对本地项目执行 U-SQL 应用程序脚本时引用程序集
- angular - 如何在 Classic CKEditor 5 中添加滚动条?
- r - 如何删除之前在组中找到值的行
- gradle - “Android Gradle”在哪里可以找到 gradle 文件中大量变量的定义和/或代码?
- regex - 用于在 Notepad++ 中替换字母数字字符的正则表达式
- c++ - 如何将具有抽象类类型的变量转换为其子类?
- nlp - 如何计算文本分类中的困惑度?
- c# - 为什么 MSDN 建议添加和删除链表节点以修改其值?
- logstash - Logstash - 多个 grok 模式不能一起工作
- json - 如何在 Flutter 的轮播(滑块)中显示 JSON 文件中的图像