首页 > 解决方案 > 使用 Airflow 并行执行脚本

问题描述

我有两个单独的火花文件。extension(.py) 我想使用气流安排这两个文件,但都需要同时启动。我怎样才能做到这一点??

但是,当我使用两个不同的线程手动提交 spark 文件时,它会并行运行。

所以我只想同时安排这两个文件。如何使用 Airflow 做到这一点?

标签: apache-sparkpysparkparallel-processingairflowairflow-scheduler

解决方案


推荐阅读