apache-spark - 在 EMR 上提交 Spark 作业
问题描述
我有近 100 多个 spark 作业要提交。但是我的集群在特定时间点最多只能运行 4-5 个作业。我可以一次性提交所有工作吗?在这种情况下纱线会如何表现?一旦集群可用,它会立即挑选工作吗?工作能等多久?我需要做什么设置?
注意:我不应该启用 EMR 的 Auto Scaling 功能。
解决方案
推荐阅读
- php - 我的 Apache2 RewriteEngine On 和 AllowOverride All 更改是否安全?
- azure - selection of task in release pipeline in azure devops
- c# - Best practice exporting List
in C# for COM Interop - python-3.x - 无法将用户输入插入 MySQL 数据库
- javascript - npm 错误!代码 ELIFECYCLE npm 错误!错误号 2
- java - MySQL查询将多行转换为一行
- ruby - Ruby子类更新父类变量
- javascript - 如何根据node.js中的当前时间戳生成带有年份的动态季度数字?
- sql-server - 选择前如何使用结果值
- android - 防止 Elvis Operator 在重新格式化时闯入下一行