bash - 通过unix检查作业是否完成
问题描述
我必须依次运行多个 spark 作业,所以我正在编写一个 shell 脚本。我可以做的一种方法是检查输出文件夹中的成功文件以了解作业状态,但我想知道是否有任何其他方法可以使用我正在运行作业的 unix 脚本检查 spark-submit 作业的状态。
解决方案
你可以使用命令
yarn application -status <APPLICATIOM ID>
您的应用程序 ID在哪里<APPLICATIOM ID>
并检查以下行:
State : RUNNING
这将为您提供申请的状态
要检查应用程序列表,请通过 yarn 运行,您可以使用命令
yarn application --list
您还可以添加 -appTypes 以根据应用程序类型限制列表
推荐阅读
- version-control - Teamcity 从 vcs 根目录之一运行构建
- c++ - c++ 菜鸟问题,&ss !ss 或 ss.X
- dataframe - 分配节点的级别
- python - 如何找到量化 matmul/conv2D 操作的浮点输出范围
- python - 错误是:django 中没有名为 util 的模块
- typescript - '&' 和 '|' 有什么区别 在打字稿中
- android - 重叠视图中的 onClickListener()
- python - 找出正则表达式满足句子的位置
- javascript - 单击 textarea 时设置单选按钮选中
- android - 我有一个问题:RecyclerView 在滚动时显示错误的数据