apache-spark - 当任务失败的最大尝试次数时会发生什么?
问题描述
通过尝试的最大值后,失败的 Spark 任务会获得新的任务 ID 吗?
在最大尝试之后,另一个尝试会发送到具有新任务 ID 的不同执行器吗?
解决方案
通过尝试的最大值后,失败的 Spark 任务会获得新的任务 ID 吗?
任务的最大尝试失败整个阶段,因此 Spark 作业。
分配任务是随机的(跨可用的执行程序),并且失败的任务不太可能再次分配给同一个执行程序(在 4 次尝试内)。
推荐阅读
- regex - 两个单词正则表达式之间的 awk 空格
- list - 使用字符串和整数遍历元组列表
- google-cloud-platform - 如何将 SSH 密钥与 Google Compute Engine 关联?
- javascript - 在 div 中向下滚动时导致箭头淡出
- amazon-web-services - AWS 弹性 beanstalk、api 和子域。如何将我的后端 api 设置为前端 url 的子域并保护它?
- php - 在 macOS 上配置 Wordpress + mysql 8.0x + nginx 时出现“建立数据库连接时出错”
- python - 在不和谐中创建一个只有特定角色才能加入和输入的权限的类别
- php - 在 PHP 中使用 word 打印输出
- python - 如何使用正则表达式解析只有一个括号作为区号的电话号码?
- android - 在 Fragments 中隐藏工具栏项目