python - AWS S3 同步方法 - 可以完全忽略修改过的文件吗?
问题描述
我故意修改每个本地同步的文件(尽管目录名称是唯一的且未修改),这使得同步方法尝试重新下载整个存储桶,花费了过多的时间。
复制本地文件(以保留其时间戳 + 大小)并不是一个真正的选择,因为存储桶大小太大,而且 AWS 同步文档似乎没有排除修改文件的选项。
我希望有一种方法可以防止尝试重新下载本地存在的目录。
有任何想法吗?
非常感谢
解决方案
会aws s3 sync --size-only
为你工作吗?
--size-only
(布尔值)使每个键的大小成为用于决定是否从源同步到目标的唯一标准。
(强调我的。)
推荐阅读
- java - 无法从 Angular 6 httpclient 向 java servlet 发送请求
- git - 使用 Git-hooks 防止合并某些分支
- python - 在 OSX 中运行 TensorFlow
- uwp - 如何使用 Angular 创建 UWP 应用程序
- node.js - 我是否必须一次传递所有车把数据,或者这些数据可以来自多个不同的地方?
- docker - Docker - 在 docker compose 中的容器之间共享卷
- arrays - 对象数组中的 v-for 问题
- reactjs - 如何在 React Native 中将容器的尺寸指定为其子项的总尺寸?
- eclipse - 在 Eclipse 中重构为 Java 8 的检查设置
- firebase - 在 Cloud Functions 中结合 Firebase 数据触发器 .create .update(可能还有 .remove)