首页 > 解决方案 > Spark:配置每个核心的并发任务数

问题描述

我正在运行一个火花作业,其中任务不是纯粹受 CPU 限制。因此,我希望 spark 能够同时运行比可用 CPU 数量更多的任务。

可以通过设置为一个任务分配多个核心spark.task.cpus=2

但是减少核心数量并不能以这种方式工作。例如spark.task.cpus=0.1不起作用。

是否可以在没有手动并行化的情况下为每个核心运行少量任务?

标签: scalaapache-spark

解决方案


推荐阅读