scala - 当一个纱线应用程序失败时,spark-submit 的退出代码在 unix 脚本中仍然是 0
问题描述
我正在使用 unix 脚本和 spark-submit 命令在 yark 上提交我的 spark 作业。我正在检查 unix 的 if else 块中 spark 作业的状态并抛出错误,但是我观察到,如果 spark 作业在 yarn 上失败或不完整,它仍然显示为成功并且 unix 脚本无法获得正确的作业状态和退出脚本。
我检查了堆栈溢出的其他答案,但无法获得所需的答案。
如果成功实施,任何人都可以帮忙。
解决方案
推荐阅读
- faunadb - 无法在 FaunaDB 中按索引更新文档
- google-cloud-platform - GCP HTTP 负载平衡器到 TCP 负载平衡器
- html - chrome的嵌入式svg渲染问题
- ansible - 使用循环检查文件夹权限
- ios - 如何为 UITableView 中的单元格添加复选标记(使用自定义 UITableViewCell 子类和 dequeueReusableCell)
- javascript - 如何在 React.JS 中将数据从子组件传递到父组件?
- python - 验证损失达到最小值然后增加
- sql - 原始 SQL 查询看起来很奇怪,正在寻找更好的方法
- algorithm - 按顺序到达每个点的给定距离内的路径
- google-cloud-run - 以内部入口模式从 Compute Engine 访问 Cloud Run