apache-spark - 多节点集群上的 Flink 与 Spark 部署模式
问题描述
在 Spark 中,我熟悉的三个集群(非本地)部署选项:
- 独立
- 梅索斯
- 纱
可能有更多的集群部署选项,但我关心这三个。以上三种都支持客户端和集群部署模式。客户端模式涉及从边缘机器本身运行的驱动程序,而集群模式涉及在集群内的一个工作节点中启动驱动程序。
现在在 Flink 方面,我只有一个节点设置的经验,这是我从一些教程中学到的,这些教程并没有真正详细说明生态系统,并且更多地关注代码而不是“也”提供大图景。因此,我正在查看Flink 中的部署选项以了解这一点。文档讨论了所有三个选项:独立、Mesos 和 YARN,但从文档中不清楚它是否支持(我们在 Spark 的行话中将其称为)客户端模式或集群模式或两者或其他模式.
这个想法是用 Flink 替换 Spark 集群。我想在执行这些步骤时了解这些步骤。文档中提供了这些步骤。这些步骤背后的基本原理要么是隐含的(足以让我无法理解),要么就是不存在。
Apache Flink 专家/贡献者的解释会有所帮助。
解决方案
最近在 Flink 邮件列表上有一个关于这个话题的讨论:
(题目名称:【讨论】per-job模式的语义与实现)
目前,来自 flink CLI 的所有作业提交都像Spark 中的客户端模式一样工作。
将来可能会提供类似于集群模式的选择加入选项(正如邮件列表中所示),特别是由于 Kubernetes 集群中的 flink 部署数量迅速增加。
推荐阅读
- react-native - React Native - 是否有可靠的地理围栏包可用?
- git - git log:列出两个给定提交“之间”的提交
- python - 如何在 Flask 中设置默认会话值?
- mongodb - 比较两个 mongo ObjectId 以检查两个对象中的哪一个是稍后创建的
- flutter - 在 Input Flutter 上键入时禁用按钮
- javascript - 仍然可以在 Nuxt 生成的站点中使用运行时 DOM 操作吗?
- azure - 使用 REST API 在 Azure 门户上进行用户预配。可能吗?
- vaadin - 为什么我们需要在 vaadin 的绑定中设置 bean **binder.setBean(object)**
- php - Laravel 查询生成器上的子查询 Where 条件
- kotlin - MockK:capture() 拦截与封闭式 verify() 中的完整参数列表不匹配的调用