apache-spark - Spark:如何在 spark-submit 中设置 spark.yarn.executor.memoryOverhead 属性
问题描述
在 Spark 2.0 中。运行 spark 提交时如何设置 spark.yarn.executor.memoryOverhead。
我知道你可以设置 spark.executor.cores 之类的东西--executor-cores 2
。这个属性的模式是否相同?例如--yarn-executor-memoryOverhead 4096
解决方案
请找例子。这些值也可以在 Sparkconf 中给出。
例子:
./bin/spark-submit \
--[your class] \
--master yarn \
--deploy-mode cluster \
--num-exectors 17
--conf spark.yarn.executor.memoryOverhead=4096 \
--executor-memory 35G \ //Amount of memory to use per executor process
--conf spark.yarn.driver.memoryOverhead=4096 \
--driver-memory 35G \ //Amount of memory to be used for the driver process
--executor-cores 5
--driver-cores 5 \ //number of cores to use for the driver process
--conf spark.default.parallelism=170
/path/to/examples.jar
推荐阅读
- python - python中的生成器错误
- c# - 如何模拟可跟踪的存储库?
- automapper - Automapper Base type, dervied type DTO Mapping
- apache-cayenne - Apache Cayenne:将固定与动态提供的 DataMap 合并到一个 ServerRuntime
- xcode - Xcode:从后台线程调用的 UI API
- javascript - 如何用角度限制输入数字范围
- uml - UML活动图如何实例化动作
- asp.net-mvc - 更改 AsyncCrudAppService 中 GetAll 方法的输出 DTO(返回值)
- javascript - 在 webRTC 中录制视频通话并将其上传到服务器以进行监控
- c# - 创建 Where 查询的 LINQ 扩展方法