首页 > 解决方案 > 如果无法获取纱线容器,则配置参数以终止 spark 作业

问题描述

在通过 spark-submit 提交作业时,我们是否可以传递一个 spark 配置参数,如果它在给定时间内没有获取容器,它将杀死/失败作业?例如,如果作业请求了 8 个纱线容器,但 2 小时内无法分配,那么作业会自行终止。

编辑:我们有脚本在集群上启动 spark 或 MR 作业。这个问题不是 MR 作业的主要问题,因为即使有 1 个容器可用,它们也可以启动。此外,MR 作业需要更少的内存,因此它们的容器可以更小,因此集群中有更多的容器可用。

标签: apache-sparkhadoop-yarn

解决方案


推荐阅读