google-cloud-platform - 使用 Airflow 将本地目录上传到 GCS
问题描述
我正在尝试使用 Airflow 将目录(带有镶木地板文件)上传到 GCS。为此,我尝试了FileToGoogleCloudStorageOperator。
我尝试了以下选项:
- 选项1
src=<Path>/*.parquet
它出错了:No such file found
- 选项 2
src=<Path>
-> 其中path是目录路径
它错误地说:Is a directory
问题
- 无论如何,FileToGoogleCloudStorageOperator 可以扩展到目录级别吗?
- 任何替代方式做同样的事情?
解决方案
简短回答:目前不可能。但我会将其视为功能请求,并尝试在即将发布的版本中添加它。
到那时,您可以使用BashOperator
和使用gsutil
同时复制多个文件。
另一种选择是使用PythonOperator
, 使用包列出文件os
并循环它们并使用GoogleCloudStorageHook.upload
上传每个文件。
推荐阅读
- reactjs - 反应原生 - 使用 Array.prototype.map() 时键无法正常工作
- sql-server - 无法将新用户添加到 Azure SQL 数据库
- google-cloud-pubsub - Google 云控制台上不再提供“发布消息”选项
- image - 如何使用 dio 使用 MultiPartFile.fromBytes 在服务器上上传多个图像
- reactjs - 错误:编译规则集失败:“加载器”上的查询参数已被删除以支持“选项”属性
- react-native - 我想要'react-navigation'的降级版本
- reactjs - 嘿,我在反应方面很新,我必须使用“onChange”进行表单验证,如果有效,那么只有状态应该改变。如何以正确的方式做到这一点?
- javascript - 如何在javascript中删除元素的类?
- python - 获取模块“tensorflow.python.keras.utils.layer_utils”没有属性“cached_per_instance”
- linux - Linux 随机间歇性性能问题