scala - spark关闭动态分配
问题描述
我想确保我的 spark 作业不会占用比我通过的内存更多的内存,假设 400GB 是作业可以使用的最大值,据我了解关闭动态分配 (spark.dynamicAllocation.enabled = false) 并通过 -- num-executors --executor-memory --driver-memory 在 Cloudera 堆栈中完成这项工作?如果错了就改正。
是否有任何其他设置我必须设置以确保火花作业不会超出限制。
解决方案
在我的工作中找到了一个解决方案 Cloudera 集群有一个特殊的纱线参数,它不会让作业超过必须关闭或重置它的特定限制。
https://community.cloudera.com/t5/Support-Questions/Yarn-memory-allocation-utilization/td-p/216290
推荐阅读
- c# - 为什么VS2017总是丢失我的派生控件?
- sql - 数据库函数的 SUM 返回比实际 SUM 高得多的值
- solr - IBM WCS 9 - solr 搜索索引构建和预处理
- ruby - Nokogiri - 将多行` `标签解析为链接和文本
- android - 如何使用本机反应从相机胶卷中获取随机图像?
- spring - Hibernate 从 OneToMany 表中获取数据怎么做?
- .net - 单击下拉列表事件时 ComboBox 更新
- php - PHP | 如果存在具有相同ID过期的任何记录,Mysql如何停止插入
- php - MySQL +替代IN()子句返回每个项目的行?
- magento - 创建一个新块并将其添加到模板