google-cloud-dataflow - 使用气流 Cloud Composer 运行多文件 python apache 光束
问题描述
我有一个多文件 python apache 束作业,我想通过气流/云作曲家在 Cloud Dataflow 上运行。我的多文件作业是按照此建议设计的https://beam.apache.org/documentation/sdks/python-pipeline-dependencies/#multiple-file-dependencies从 CLI 可以正常工作。现在我想通过气流和 Cloud Composer 运行它。我尝试使用https://airflow.apache.org/integration.html#dataflowpythonoperator但它不起作用。可能我错过了配置此运算符的正确方法。顺便说一句,我使用此运算符运行一个文件 python apache 束作业没有问题。
解决方案
推荐阅读
- data-structures - 删除链表
- laravel - Laravel - 使用 Rule 类自定义错误消息
- android - 尽管传递了项目 ID,但仍获得 ResourceNotFoundException
- cypress - 如何单击柏树中的链接
- java - 将外部类的值设置为内部类中检索到的值
- jquery-ui - 如何在向上拖动时修复“可调整大小框下的这个移动框
- android - 未解决的依赖关系:找不到任何与 com.android.support:appcompat-v7:29.+ 匹配的版本
- javascript - 如何使这个功能更小?
- c# - 在编辑器会话之间存储编辑器值
- java - 使用带有分页的 java 在 GCS 中列出 Blob 不断获得相同的 Blob 页