amazon-s3 - 将 5GB 及以上的大文件从 Google Cloud Storage Bucket 复制到 S3 Bucket
问题描述
我一直在使用 gsutil 将文件从我的谷歌云存储复制到 s3 没有问题。最近我得到了更多的流量,导致更大的传输大小。这导致“文件超过了 gsutil 支持的 s2 上传的最大大小。大于 5gb 的 S3 对象需要分段上传,而 gsutil 不支持”
有没有人经历过这个?我在想使用 s3api 可能会解决这个问题......
你的意见?
解决方案
推荐阅读
- html - 是否可以在没有 root 的情况下编辑此 html 文件?
- c# - 如何选择此 ID?
- nginx - Nginx 将所有 POST 数据发送到 /dev/null
- c++ - SDL 包装头中的智能指针
- google-sheets - ARRAYFORMULA - 如何引用上一列
- r - 在dplyr(过滤列)R中的条件下选择/删除列
- algorithm - 使用堆栈将递归算法转换为迭代
- javascript - JavaScript API 响应 - 检查变量是否存在
- common-lisp - 将变量的值设置为自评估代码
- swift - 在 Swift 中以编程方式在 MacOS 上移动窗口