首页 > 解决方案 > 限制 Spark 应用程序在工作节点上的内存使用

问题描述

我有一个由一个主节点和一堆工作节点组成的计算机集群,每个节点都有 8GB 的​​物理 RAM。我想在这个集群上运行一些 Spark 作业,但是限制每个节点用于执行这个作业的内存。这在 Spark 中可能吗?

例如,我可以运行一项工作,以便每个工作人员最多只能使用 1GB 的物理 RAM 来完成其工作吗?

如果没有,是否有其他方法可以人为地“限制”每个工人拥有的 RAM?

如果可以以某种方式限制 RAM,那么当 Spark“用完”物理 RAM 时会发生什么?它是分页到磁盘还是 Spark 作业只是杀死自己?

标签: apache-sparkpysparkpagingram

解决方案


推荐阅读