amazon-web-services - EMR -spark maximumResourceAllocation 在 EMR 6.x 中的默认值
问题描述
maximizeResourceAllocation
如果我们在创建 EMR 集群时不指定它,那么 EMR中的默认值是多少?我浏览了各种 AWS 文档 https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html
但找不到它的价值。问题是我们没有spark.executor.memory
在 Spark 作业中设置设置。但默认情况下设置为 18G。我认为这是根据核心或任务节点类型设置的。我尝试将其设置为较低的级别,但它仍然是 18G。可能的原因是什么?
我假设问题在于maximizeResourceAllocation
设置。我很想知道它的默认值。我们在 EMR 配置中不使用此参数
解决方案
推荐阅读
- python - 列出熊猫数据框列中的所有单词
- python - 从熊猫数据框中删除所有零和的列和行的最佳方法
- python - 寻找数字河流的交汇点
- html - html/css .css 文件更改
- c# - VS 的诊断工具是测量总进程内存还是当前进程内存
- apache-kafka - kafka-server-start:该进程无法访问该文件,因为它正在被另一个进程使用
- python - Django:禁止为用户添加相同的数据
- byte - Http.get 中的 Elm 字节解码
- python - 只有文件列表的最后一个元素在 python 中使用 json.dump 输出
- state - Apache Beam 状态管理/处理 - 在窗口范围内跨 ParDo 共享状态?