首页 > 解决方案 > spark 提交配置执行器、最大核心数和执行器核心数

问题描述

我试图了解当我提交火花作业时这三个标志集的组合将返回什么

 --conf 'spark.executor.cores=2' \
 --conf spark.cores.max=25\
 --conf spark.executor.instances=25 \

如果你设置所有这些,它尊重哪一个?总共是 25 个核心还是 50 个核心?

标签: apache-spark

解决方案


推荐阅读