首页 > 解决方案 > Apache Airflow - DAG 中有多少任务太多了?

问题描述

我尝试了一个有 400 个任务的 DAG(比如每个运行调用远程 spark 服务器以将单独的数据文件处理到 s3 中......与 mysql 无关)和气流(v1.10.3)在接下来的 15 分钟内执行了以下操作:

我最终切换到另一个 ec2 实例但得到了相同的结果......

我在单机(16 个 CPU)上运行 LocalExecutor。

注意具有 30 个任务的 DAG 运行良好。

标签: airflow-schedulerorchestrationairflow

解决方案


DAG 中的任务数量没有实际限制。在您的情况下,您正在使用LocalExecutor-airflow 然后将使用主机上可用的任何资源来执行任务。听起来您刚刚使您的 ec2 实例的资源不堪重负,并使气流工作人员/调度程序超载。我建议增加更多的工人来分解任务或降低parallelism你的airflow.cfg 中的值


推荐阅读