apache-spark - 如何在 Kubernetes 集群中自动扩展 Spark 作业
问题描述
需要关于运行 spark/kubernetes 的建议。我有带有原生 kubernetes 支持的 Spark 2.3.0。我正在尝试使用 spark-submit 运行 spark 作业,参数 master 为“kubernetes-apiserver:port”和其他必需参数,如 spark image 和此处提到的其他参数。如何启用自动缩放/根据负载增加工作节点的数量?有我可以遵循的示例文件吗?一些基本的示例/文档将非常有帮助。或者有没有其他方法可以在 kubernetes 上部署 spark 可以帮助我实现基于负载的自动扩展。
解决方案
基本上,Apache Spark 2.3.0 不正式支持 K8S 集群上的自动缩放,正如您在 2.3.0 之后的工作中看到的那样。
顺便说一句,它仍然是一个正在开发中的功能,但你可以尝试使用 Spark 2.2 的 k8s fork
推荐阅读
- selenium - Roboframework - Selenium - 查找所有包含特定文本的 HREF
- python - 使用python数值求解偏微分方程
- javascript - 为什么我在运行 npm run start 时不断收到此错误?这是 React 的导入错误
- javascript - 如何在回调nodejs中停止流api
- go - 如何在眼镜蛇中设置以 -- 为前缀的命令名称
- php - 为什么 VS 代码没有检测 Laravel 刀片代码?
- python - 使用 Symfit 进行 ODE 拟合 - ValueError:操作数无法与重新映射的形状一起广播
- android - 在颤动中单击 TextFormField 后键盘正在关闭
- mysql - 当我使用选择命令时如何添加每行的名称
- r - 使用 sapply 输出 R 中回归循环的所有回归系数?