首页 > 解决方案 > Spark UI 显示错误的内存分配

问题描述

我们目前遇到了一个问题,Spark 显示我们的每个节点只有 4GB 内存。但是,我们通过设置分配了 10GB 的内存spark-worker.jvmOptions = -Xmx10g。我们无法弄清楚是什么导致了这种异常限制/不正确的内存分配。

当我们去运行 spark 作业时,它会像每个工作人员只有 4GB 的内存一样运行。

任何帮助都会很棒!谢谢!

SOLR 用户界面截图

标签: apache-spark

解决方案


--executor-memory您应该使用 :在您的 spark-submit 中设置工作人员内存


推荐阅读