apache-spark - Apache Spark 在 YARN 上运行并修复分配
问题描述
现在发生的事情是 YARN 只是从一个 spark 作业中获取多个 executor 并将其交给另一个 spark 作业。结果,此 spark 作业遇到错误并死亡。
有没有办法或现有配置在 YARN 上运行的某个 spark 作业具有固定的资源分配?
解决方案
固定资源分配是一个古老的概念,并没有带来适当的资源利用的好处。动态资源分配是 YARN 的高级/预期功能。所以,我建议你看看实际发生了什么。如果作业已经在运行,那么 YARN 不会占用资源并将其提供给其他人。如果资源不可用,则第二个作业将排队,并且不会从第一个作业中突然提取资源。原因是容器具有内存和 CPU 的组合。如果将内存分配给其他作业,那么基本上这意味着第一个作业的 JVM 将永远丢失。YARN 没有做上面提到的事情。
推荐阅读
- arrays - kotlin Firebase 变量路径
- python - 从 pandas.core.series.series 检索数据并将它们保存到矩阵中
- ssis - 如何将csv文件中的日期转换为整数
- r - 将多个列中的因子水平相加
- java - 创建对应不同宽度断点的不同虚拟设备
- javascript - 在 Angular11 中发布 JSON 请求并读取 EventStreams
- visual-studio - Visual Studio 方法/变量菜单不断消失(也不确定我应该使用什么术语来查找相关答案)
- r - R,我可以使用我在循环本身的循环中创建的变量吗?
- r - 从向量 r 中绘制一个值
- r - 保留其元素在同一列表中没有适当子集的向量(来自向量列表)(使用 RCPP)