首页 > 解决方案 > 集群扩展时动态更改分区数

问题描述

我正在运行一个最初有 4 个节点集群的 spark 作业。该集群是可自动扩展的,因此在高负载期间,节点数最多可扩展到 15 个节点。但是在启动过程中,我们提供了基于 4 个节点的分区数。现在,当我的集群扩展到 15 个节点时,分区数仍然相同(在启动时分配)。我的问题是,即使我没有更多的执行程序,我是否也完全利用了我的集群而没有相同的分区。或者 spark 在内部处理这个。

集群扩展时是否必须动态更改分区数?如果我必须这样做,我怎样才能在我的 Spark 工作中实现这一点?

任何输入都受到高度赞赏。

提前致谢!!

标签: apache-spark

解决方案


推荐阅读