首页 > 解决方案 > 在 Spark 中执行时删除从节点

问题描述

是否有可能以某种方式告诉主节点不要将任何更多任务分配给 Apache Spark 中的某个工作节点?

标签: apache-sparkpyspark

解决方案


有一个关于节点黑名单的详细博客。

https://blog.cloudera.com/blog/2017/04/blacklisting-in-apache-spark/


推荐阅读