apache-spark - Spark调度程序与Spark Core?
问题描述
我发现 Apache Spark 是出于教学目的,我对如何管理任务调度感到有些困惑。我发现 Spark 有 3 个调度选项:Spark Scheduler、YARN Scheduler 和 MESOS。但后来我也读到 Spark Core 管理任务的调度。所以我认为我在这里没有得到重点:
如果它管理任务的调度,为什么我们需要一个低于 Spark Core 的调度器?
那么,这些任务并行执行意味着什么?这是否意味着在更多工作人员上并行或在同一个工作人员上并行?
解决方案
也许您对资源管理器和作业调度器感到困惑。对于 Spark 来说,它可以独立运行,换句话说,它具有资源(CPU\MEMORY)管理和作业(数据管道\作业流)管理。
推荐阅读
- hive - 在 hive 中为直方图创建范围箱
- css - 如何在 css 伪元素(::before)中使用 Material.io 概述的图标?
- apache-kafka-streams - Kafka Streams 实例进入 DEAD 状态
- python - 带有 datetime 对象的 pandas Grouper 方法的奇怪行为
- php - Laravel 5.6 再次出现错误
- android - 获取具有不同 where 子句和顺序的所有字段
- javascript - YouTube API v3 使用 nextPageToken (node.js) 请求更多项目
- javascript - 为 SVG 的 g 元素设置 X 和 Y 值
- firebase - 一次关闭 Crashlytics 中的所有未解决问题?
- c# - 模拟 HttpApplication 类的 Completerequest()