首页 > 解决方案 > 是否可以为每个节点分配一个执行程序来运行火花任务

问题描述

我总共有 50 个节点集群,我有一个用例,我想在不同的机器或 IP 地址中并行运行 spark 程序。
是否可以将 spark 配置为每个节点仅启动一个具有任何配置的执行程序?

标签: apache-sparkhadoop-yarnscheduler

解决方案


推荐阅读