java - Apache Spark with Java:同时启动多个应用程序请求
问题描述
我们在 java 中使用 spark 并创建了 Java REST api 来调用我们的 spark 代码。在调用 REST url 时,我的 java 方法将创建 SparkSession 和 Context 以继续计算。这适用于单个请求,但同时对于多个请求,我们收到与 SparkContexts 相关的问题:Multiple SparkContexts in same Driver JVM
还尝试使用: conf.set("spark.driver.allowMultipleContexts", "true");
请建议如何管理同时火花请求的火花上下文。或者任何其他处理这种情况的方法?
解决方案
有几个开源选项可用。
1. Spark jobserver - 提供一个 RESTful 接口,用于将请求提交到相同的 spark 上下文。
2. Zeppelin , Livy - 用于提交 Spark 请求的 Notebook 接口。
它们还公开 REST 端点以提交 Spark。
推荐阅读
- python - 如何在多个 CSV 文件上训练 CNN 模型?
- ios - 基于蜂窝数据的 AVFoundation
- powershell - 如何使用 rest Api 创建 Jenkins 作业
- cypress - 从自定义命令 cypress 返回内容
- notepad++ - 在文本中添加递增的数字
- pytorch - 导入 pytorch 几何会导致错误消息
- javascript - 如何使用 Three.js 和 Mesh 数据渲染 3D 形状
- visual-studio-code - 如何忽略非差异编辑器中前导/尾随空格的变化?
- php - Larvel Sail:在 Apple Silicon M1 上为现有应用程序安装 Composer 依赖项失败
- android - 为什么 Log.d() 和 Log.v() 不打印