scala - 在 Spark 中是否可以在同一个 SparkSession 上运行并发作业?
问题描述
我是一名业余 Spark 用户和 Scala。尽管我进行了多次搜索,但我找不到我的答案。是否可以在单个驱动程序上同时将不同的任务分配给不同的执行程序?例如,假设我们有 10 个节点。我想编写一个代码来使用具有五个工作人员的朴素贝叶斯算法对数据集进行分类,同时,我想为其他五个工作人员分配一个任务,以使用决策树算法对数据集进行分类。之后,我将结合这些答案。
解决方案
哈米德礼萨,
您想要实现的是从您的驱动程序并行运行两个操作。这绝对是可能的,但只有在您的操作没有使用整个集群时才有意义(实际上是为了更好的资源管理)。
您可以为此使用并发。有很多方法可以实现并发程序,从Futures
(我不能真正推荐这种方法,但似乎是 Scala 中最受欢迎的选择)到更高级的类型,如任务(你可以看看流行的函数库像Monix
,Cats
或Zio
)。
推荐阅读
- flutter - '可迭代
'不能分配给列表类型'Widget' - python - 在 Celery 链中动态更改任务成功回调和错误回调
- php - 将 Html 字符串添加到 woocommerce 电子邮件中
- java - 在 Dependent Spinner 上添加功能
- django - 为 self.data 中的键获取 False 值,即使它不存在于请求中
- shell - 有效载荷 - 松弛到团队迁移
- node.js - 如何解码使用firebase admin NodeJS sdk生成的自定义令牌
- delegates - 为什么我的 Graphicsmagick 构建不使用 delegates.mgk 文件?
- java - 如何以角度验证我的 java 服务的响应?
- excel - Excel 序列函数的问题