python - Airflow DAG Task to Archive files 创建递归文件夹
问题描述
我有以下 Google GCS 到 GCS 文件移动。在 Google GCS(存储)中,我的存储桶中有一个文件夹(我们称之为“bucket1”)。在 bucket1 中,有一个存档文件夹和一系列 json 文件。
我正在尝试将 json 文件放入存档文件夹中。我的问题是它也在制作存档文件夹的副本(加上里面的内容)。这将创建一个递归存档文件夹(即 Archive\Archive\Archive....)。这是任务:
archive_files = GoogleCloudStorageToGoogleCloudStorageOperator(
task_id='Archive_Files',
source_bucket='my_data',
source_object='*.json',
destination_bucket='my_data',
destination_object='Archive/',
move_object=True,
google_cloud_storage_conn_id='connection1',
dag=dag
)
我如何告诉 Airflow,我只想要该文件夹中的文件,而不创建递归“存档”文件夹?
谢谢!
解决方案
推荐阅读
- c - 以下C代码编译并运行,但它是未定义的行为吗?
- vba7 - 在 64 位 Office 和 VBA7 中声明和调用 HTMLHelp API 需要正确的语法
- dns - 如何设置充当 OpenShift 集群别名的子域
- asp.net - 如何使用 ASP.NET 将数据保存到 MySql 数据库中
- python - 与 TF2.3 相比,使用 TF1.15 时 tf.keras model.fit 慢
- c# - 如何将 C# 编译器错误位置(行、列)映射到 Roslyn API 生成的 SyntaxTree?
- python-3.x - Mathplotlib - 如何在左右两侧绘制 y 轴标签和刻度线
- json - 如何使用 dart 修改 json 文件
- vb.net - MySqlException:列计数与第 1 行的值计数不匹配
- sql-server - 将行号添加到 Microsoft Report Builder 输出