scala - Spark Driver 死了,但没有杀死应用程序
问题描述
我有一个流式传输作业,由于网络调用超时而失败。虽然应用程序会持续一段时间,但如果同时我杀死驱动程序,应用程序不会死。而且我必须通过 UI 手动终止应用程序。
我的问题是:发生这种情况是因为网络连接在不同的线程上形成并且不会让应用程序死掉吗?
解决方案
不要“杀死”你的 spark 工作的随机部分;由于高可用性(火花的主要功能之一),他们重试。如果你想杀死你的工作,你可以使用纱线。
yarn application -kill <APP_ID>
您可以通过以下方式获取所有正在运行的应用程序的列表
yarn application -list
最后,您可以使用以下命令查看作业日志
yarn application -logs <APP_ID>
推荐阅读
- javascript - 将值从文本区域传递给 PHP
- msbuild - 跳过项目“SetupWix.wixproj”的恢复。项目文件可能无效或缺少恢复所需的目标 (NU1503)
- excel - Excel -VBA+API - 添加列并从每日 API 获取历史数据的最高效解决方案
- c# - ASP Core Razor 语法@for -> 具有不同输入的多个提交按钮?
- javascript - *ngIf 内的 viewChild 导致未定义的引用
- java - 使用 PBKDF2 解密密码
- for-loop - 带有 setTimeOut 意外输出的 For 循环
- sql-server - 使用具有空值的枢轴列获得重复 ID 的列枢轴问题
- kubernetes - kubernetes 服务选择多标签
- spring-cloud-stream - How can I nack or reject message after republish to dlq