airflow - 使用 Airflow 的工作负载块
问题描述
在气流中是否可以将工作量分成块?例如:如果我有一个包含 1.000.000 条记录的文件,则可以处理每条 100.000 条记录并并行运行这些块。我知道 Celery 为此目的有一个叫做 Chunks 的东西,但我在 Airflow 中需要同样的东西。谢谢你的帮助!
解决方案
气流主要用于编排。您可以通过在 DAG 中动态分配任务来做到这一点。然而,这不是一个理想的用例。我的建议是使用 Airflow 安排将这些数据推送到 RabbitMQ 或 Redis 等消息队列中。
推荐阅读
- amazon-web-services - EsHadoopIllegalArgumentException:没有启用 HTTP 的数据节点可用(HTTPS 问题)
- wso2 - 如何在端口 443 上绑定 WSO2 但它应该在 8445 上运行
- python-3.x - 忽略特定 flake8-docstrings 错误的整个文件夹
- python - django中的2级用户
- pyinstaller - PyInstaller:我在哪里可以找到我的应用程序的输出(控制台中不显示任何内容)?
- ios - Tidwall/安全互斥锁死锁
- cython - Cython cimport 从另一个目录
- javascript - 为什么这个过滤器函数用大括号未定义但不是没有
- html - 自定义元素仅适用于标记?
- javascript - React Native 中带有抽屉和堆栈导航器的嵌套导航