apache-spark - 即使在 spark-defaults 中设置,也无法更改 spark.driver.memory
问题描述
我正在使用 Amazon EMR 集群,并且想要更改驱动程序堆内存。
我为集群提供了以下配置:
[{"classification":"spark-defaults",
"properties":
{"spark.executor.memory":"36g",
"spark.driver.memory":"36g",
"spark.driver.cores":"3",
"spark.default.parallelism":"174",
"spark.executor.cores":"3",
"spark.executor.instances":"29",
"spark.yarn.executor.memoryOverhead":"4g",
"spark.dynamicAllocation.enabled":"false"}}]
但是,当我在 spark UI 中检查环境选项卡时,驱动程序内存仍然固定为 1000m,而其余部分设置正确。我究竟做错了什么?
我正在使用 10 个 r4.4xlarge 机器集群。
谢谢你。
解决方案
推荐阅读
- android - 'where' is not recognized as an internal or external command, operable program or batch file. Error: Unable to find git in your PATH
- java - Spring security oauth2 login url 404
- c# - Entity Framework Core: No parameterless constructor defined for this dbcontext
- python - Python 版本依赖类型注解
- javascript - Firebase 登录 - 检查电子邮件是否在使用中
- blockchain - 使用 truffle 为 Solidity Ethereum 测试智能合约时出错
- stata - 不包括 NA 编码变量的百分比变化 (Stata)
- reactjs - React Jest/Enzyme - 快照创建的文件太大(数千行)/从快照中删除属性
- java - XYChart 数据:按对象类型编译交易金额
- r - 将 ggplot 多面栅格地图与单个地图对齐(单独的图例)