apache-spark - 在 Spark 中执行时删除从节点
问题描述
是否有可能以某种方式告诉主节点不要将任何更多任务分配给 Apache Spark 中的某个工作节点?
解决方案
有一个关于节点黑名单的详细博客。
https://blog.cloudera.com/blog/2017/04/blacklisting-in-apache-spark/
推荐阅读
- angular - Firebase + ngrx + 多个身份验证提供商
- python - python线程锁不会锁定线程的其余部分
- azure-devops - Azure DevOps 管道,Azure PowerShell 4.* 脚本在“ForEach -Parallel”中丢失 AzContext?
- python-3.x - 在 Altair 中的 choropleth 上覆盖状态轮廓
- chapel - 使用多个语言环境的矩阵乘法
- python - 从数据框创建数据集,以便每个属性组合具有相同数量的正/负样本
- javascript - 如何在启用 Windows 身份验证的情况下发送 API 请求?
- if-statement - 在 Rust 程序中,当条件为“假”时执行“if”语句,如何理解它?
- javascript - Javascript:如何用 % char 替换字符串中的子字符串
- c# - 防止对象类作为项目重复输入到列表框