apache-spark - 是否可以为每个节点分配一个执行程序来运行火花任务
问题描述
我总共有 50 个节点集群,我有一个用例,我想在不同的机器或 IP 地址中并行运行 spark 程序。
是否可以将 spark 配置为每个节点仅启动一个具有任何配置的执行程序?
解决方案
推荐阅读
- gcc - 没有为 arm-none-eabi 找到符号“__aeabi_uidiv”
- sql - 在运行更新存储过程之前使用预先存在的数据加载视图以编辑记录?
- python - mock.patch() 作为装饰器和上下文管理器的区别
- python - 如何简单地使用蚁群优化来找到函数的最小值?
- angular - Angular 6 错误显示
不是已知元素 - android - 在 Xamarin (Android) 中获取附加的 USB 设备信息
- node.js - 需要使用node.js函数检索存储在谷歌云存储桶中的所有文件Urls(所有文件)
- tensorflow - 使用 TPU 在 Google Colab 上训练对象检测模型
- angular - 呃!NG_BUILD FATAL ERROR: In Effective mark-compacts near heap limit Allocation failed - JavaScript heap out of memory
- javascript - 如何从带有输入字段的动态 html 表中制作 excel 表