amazon-web-services - 具有大量 Parquet 文件的 S3 存储桶的灾难恢复
问题描述
我有一个 S3 存储桶,每个分区中有很多拼花分割文件。存储桶中的所有文件对业务都非常重要,万一有人删除它们将是一场灾难。现在,如果我使用 Glacier/Glacier D.Arch.,我担心在失败的情况下我的检索成本会太高,因为单个镶木地板文件的数量。我怎样才能以最低的成本最好地为这样的存储桶创建灾难恢复?(假设用户没有在每个月删除必要的数据。)
示例案例: 考虑一下,我有 100 GB 的数据,其中包含 150 KB 的文件。Glacier 中 1 次意外删除的年度额外费用为 53 美元,而 Glacier Deep Arch 则为 82.4 美元。现在只需将每个文件的大小从 150 KB 更改为 1024 KB。这些费用更改为 Glacier 的 21 美元和 Glacier Deep Arch 的 16 美元。我这里的主要问题是拼花文件的数量,这些文件提高了负担得起的检索成本。
解决方案
推荐阅读
- javascript - 如何将图像 URL 传递给 React 路由器?图像未显示在组件中,但图像已通过?
- mysql - 为什么 phpmyadmin 连接到 mysql 时出错?
- html - 如何使用包含“_ngcontent-c1”标签的 rvest html 内容进行网络抓取?
- android - 收到通知时获取 java.lang.IllegalAccessError
- python - 问题(已解决):ModuleNotFoundError: No module named 'xzy' after modifying module in google colab
- javascript - 无故获取解析错误 Typescript、Vue、vue-property-decorator、VSCode
- tensorflow - 将 keras 模型转换为量化的 tflite 丢失精度
- python - 无论字符串中斜杠的方向如何,如何在 Windows 中的字符串列表中查找文件路径
- python - 以编程方式访问 Excel 的编辑历史记录
- oracle - GROUP BY 返回错误 ORA-00933: SQL 命令未正确结束