java - 在 Spark-cluster 上。是否有一个参数可以控制 spark 作业的最短运行时间
问题描述
我的 Spark 程序会先判断输入数据路径是否存在,如果不存在,安全退出。但是退出后,yarn 会重试一次作业。所以,我猜一个参数将控制作业的最短运行时间。在 Spark-cluster 上。是否有一个参数控制 spark 作业的最小运行时间,即即使任务成功但小于该时间也会触发重试。
---------第一次编辑后--------------
我把重试次数变成了1,现在不用考虑重试次数了。我的程序中main方法只有一句话System.out.println('MyProgram');
。日志显示一切正常,但是yarn认为这是一个失败的工作。我很困惑。
解决方案
否。如果您的作业以非零的退出状态结束,则会发生重试。
推荐阅读
- scala - 使用 Scala 宏获取具体函数的名称
- pipeline - 指令流水线中的 BZ 和 BNZ 有什么区别?
- c# - C# 使用 AsParallel 包装数组初始化 - 表达式树
- python - 在输入 cntrl+c 以关闭 linux 中的 python 文件之前,表值不会插入到 mysql 数据库中
- ocaml - (Ocaml)使用“匹配”从字符列表中提取字符列表
- bash - Bash 期望匹配 bash 和 ksh 提示
- docker - 来自外部源的连接超时呼叫
- sql - PostgreSQL - 将数组的值更新为其元素和另一个数组元素的不同联合
- ios - segue 弹出后从 PresentingViewController 调用方法
- python - 卡在搜索列表索引的算法中