apache-spark - EMR 集群中的 Spark on Yarn 核心数
问题描述
我有一个用于 spark 的 Emr 集群,具有以下 2 个实例的配置。
r4.2xlarge
8 vCore
所以我的总 vCores 是16,同样反映在 yarn Vcores
我已经提交了一个带有参数 --num-executors 2 --executor-cores 5 的 spark 流作业。所以我假设它将用2*5 总共 10 个 vcore用于执行程序,但它总共只使用了 2 个核心集群(司机+1)
而在 Spark 中,该作业仍在以 10 (2*5) 的并行任务运行。似乎它只是在每个执行程序核心中只运行 5 个线程。
我已经阅读了不同的问题和文档 --executor-cores 使用实际的 vCores,但在这里,它仅将任务作为线程运行。我的理解在这里正确吗?
解决方案
推荐阅读
- python - 神经网络 - 基础 Python
- python - 我不能在烧瓶上返回日期和页脚功能
- apache-kafka - KSQL KTabke+KTable Join 重复结果异常
- mysql - Heroku 上 NodeJS 的 MySQL 连接错误(在 Dev 中工作)
- javascript - 这段代码的问题在哪里?Discord js音乐机器人
- c++ - c4-pedestrian-detector.cpp:283:8:错误:“Show_Detection_Steps”未在此范围内声明
- javascript - await 在语句语法说明中的位置
- python - 我的 Python/Cython 迭代基准测试是否具有代表性?
- java - Java 泛型中的自动装箱和类型检测
- mongodb - 在尝试运行配置服务器的副本集时获取“副本集 ID 不匹配,我们的:<>,远程节点的:<>”